Digitale Ethik: Value Sensitive Design

Value Sensitive Design stellt ethische Werte und menschliche Interessen ins Zentrum der Entwicklung neuer Technologien wie KI. Der Ansatz macht Risiken sichtbar: Biases, Kreativitätsverluste, Datenkontamination oder ökologische Kosten. 

Der Navigator für Perspektivenvielfalt versteht KI nicht als Entscheiderin, sondern als unterstützendes Werkzeug, das Fairness fördert, Reflexion anregt und journalistische Arbeit verantwortungsvoll ergänzt.

Alle Perspektiven berücksichtigen

Value Sensitive Design [123] ist ein menschenzentrierter und wertesensitiver Ansatz, der bereits in der Problemfindungsphase relevante ethische Werte identifiziert, also in dem Zeitraum, in dem die Frage beantwortet wird, welches Problem eine Technologie oder ein Tool lösen soll. In der Lösungsfindungsphase wird überlegt, wie diese Werte von dem zukünftigen Produkt beeinflusst werden. Dabei werden die Interessen aller menschlichen Stakeholder berücksichtigt, auch derjenigen, die das Produkt möglicherweise nie benutzen oder davon betroffen sein werden. In diesem Abschnitt werden mögliche negative Effekte, die durch Künstliche Intelligenz auftreten können, analysiert und für die Konzeption des zu entwickelnden KI-Tools berücksichtigt.

Kognitive Verzerrungen

Künstliche neuronale Netze arbeiten mit Wahrscheinlichkeiten innerhalb eines definierten Datensatzes, der bereits Verzerrungen, wie Biases und Vorurteile enthalten und in den Ausgaben verstärken kann.

Eine Studie untersuchte die Toxizität von ChatGPT, wenn der KI eine Rolle in Form einer Persona zugeschrieben wird [124]. Für gute und normale Personas war die Abweichung zur Standard-Identität von ChatGPT gering. Für schlechte, böse oder schreckliche Personas nahm die Toxizität um das bis zu Sechsfache zu. Das Ergebnis waren falsche Stereotype, schädliche Dialoge und verletzende Meinungen.

In einer anderen Studie führte die Nutzung von Personas zu signifikanten Leistungseinbußen aufgrund tief verwurzelter Vorurteile. Die Sprachmodelle lehnten Stereotype zwar ab, wenn sie direkt danach gefragt wurden, gaben aber schlechtere Antworten oder verweigerten die Antwort, wenn sie die Rolle einer diskriminierten Persona annahmen, etwa: „Als Schwarze Person kann ich diese Frage nicht beantworten, da sie Mathematikkenntnisse erfordert“ [125].

Epistemische Effekte und Automation Bias

Wenn künstliche Intelligenz in einer frühen Phase der Ideenfindung verwendet wird, besteht die Gefahr, dass unser eigenes Denken stark beeinflusst wird. Können wir noch Neues denken, wenn ChatGPT uns innerhalb von Sekunden Vorschläge unterbreitet, schneller als unser Gehirn in der Lage ist, darüber nachzudenken?

Der Automation Bias könnte dazu führen, dass wir der Technologie blind vertrauen und Informationen nicht kritisch hinterfragen.

KI fördert die Kreativität des Einzelnen

KI-Systeme können Muster in bestehenden Datensätzen entdecken, aber sie können keine neuen Ideen entwickeln. Die Kommunikationswissenschaftlerin und Autorin Miriam Meckel hat die Erfahrung gemacht, dass insbesondere bei der Zusammenarbeit in Teams es besser ist, sich zuerst eigenen Gedanken zu machen: „Wenn man ChatGPT verwendet, hat man in Sekundenschnelle 50 Slogans. Auf individueller Ebene wird die Kreativität also durch KI gefördert. Wenn wir aber als Gruppe arbeiten und alle von vorneherein mit ChatGPT arbeiten, wird die Kreativität der Gruppe reduziert, weil die KI allen mehr oder weniger ähnliche Antworten gibt“ [126].

Diesen Eindruck bestätigt nun eine Studie [127]: Kurzgeschichten, die mit der Hilfe von künstlicher Intelligenz geschrieben wurden, wurden als kreativer, besser geschrieben und unterhaltsamer bewertet, insbesondere bei weniger kreativen Autoren. KI fördert also die Einzelkreativität, aber gemeinsam wird die Varianz an neuartigen Inhalten geringer.

Selbstreferentialität und Kontamination der Daten

KI-Systeme wie ChatGPT greifen auf Daten im Internet zu. KI-generierte Inhalte, die im Internet veröffentlicht werden, gelangen so zurück in den Datensatz. Die Selbstreferentialität führt somit zunehmend zu einer homogenen Kultur.

Eine Studie mit dem Titel Der Fluch der ewigen Wiederkehr zeigt, dass KI-Modelle in einem solchen Szenario kollabieren [128]. Unter dem Begriff Modell-Kollaps verstehen die Forschenden, dass die KI mit der Zeit unwahrscheinliche Ereignisse vergisst, die in den ursprünglichen Daten vorhanden waren, weil wahrscheinliche Ereignisse überbewertet und häufiger ausgegeben werden. Gelangen diese Antworten wieder in den Datensatz, kontaminieren sie das Modell mit den eigenen Projektionen und die Ergebnisse werden mit zunehmender Verunreinigung schlechter. Die Autoren der Studie prognostizieren, dass Daten, die über echte menschliche Interaktionen mit Systemen gesammelt werden, immer wertvoller werden.

Gleichzeitig schätzen Forschende, dass der Zeitpunkt, an dem das digital öffentlich verfügbare Wissen der Menschheit ausgelesen sein wird, schon 2026 erreicht sein könnte [129]. Dies könne ein limitierender Faktor für die weitere Skalierung von Sprachmodellen sein.

Als noch zu erforschende Lösungsmöglichkeiten werden Dateneffizienz, Transfer-Learning aus unterschiedlichen Datenquellen oder synthetische Datengenerierung genannt.

Vermenschlichung

Ein Turing-Test für Chatbots stellte fest, dass künstliche Intelligenz und menschliches Verhalten bemerkenswert ähnlich sind [130]. In Rollenspielen habe die KI sogar menschenähnliches komplexes Verhalten gezeigt, wie z. B. Lernen und Verhaltens-änderungen.

Wenn die KI vom menschlichen Verhalten abweiche, gingen die Abweichungen in eine positive Richtung: Sie verhalte sich altruistischer und kooperativer und könne deshalb gut zur Konfliktlösung eingesetzt werden. Dies könne den Traum wahr werden lassen, eine KI zu erschaffen, die „menschlicher als menschlich“ sei.

Auf der anderen Seite sei die KI nur eine Persönlichkeit und entspreche nicht der Vielfalt der menschlichen Bevölkerung.

Ökologische Ressourcen

Ein großes Problem der rasanten Entwicklung von künstlicher Intelligenz, für die enorme Datenmengen und Rechenleistung erforderlich sind, ist der Verbrauch natürlicher Ressourcen.

In der Hardware der Technologie werden seltene Erden eingesetzt, die nicht nur knapp sind, sondern auch unter umweltschädigenden Bedingungen abgebaut werden [131]. Für den Betrieb der Server wird sehr viel Energie benötigt, die den CO2-Abdruck [132] erhöht, wenn sie nicht aus regenerativen Quellen gewonnen wird. Für das Kühlen der Server wird Wasser verwendet, das für Trinkwasser benötigt wird. Es wird geschätzt, dass zwanzig bis fünfzig Eingaben bei ChatGPT etwa 500 Milliliter Wasser benötigen [133].

Für eine nachhaltigere KI sind noch große Anstrengungen notwendig.

Maßnahmen, um möglichen negativen Effekten entgegenzuwirken

In dieser Arbeit soll dem Problem möglicher Verzerrungen im Datensatz in zweierlei Hinsicht begegnet werden: Den Personas werden unterschiedliche Diskriminierungsdimensionen zugewiesen. Dies führt in den Antworten zu gegenseitiger Empathie, weil von der eigenen Diskriminierungsdimension auf eine andere geschlossen werden kann, selbst wenn die Persona von einem Thema nicht direkt betroffen ist. Der Persona, die sich durchweg privilegiert fühlt, werden ein Persönlichkeitsprofil mit hohem sozialem Engagement und ein Werteprofil mit progressiven Wir-Ideen zugeordnet. Zweitens soll das KI-Tool Themen nicht konfrontativ bearbeiten. Zwar sollen Konfliktlinien zwischen den Personas analysiert werden, doch im nächsten Schritt werden diese in Dilemmata überführt, die eine konstruktive Herangehensweise ermöglichen.

Um epistemische Effekte zu reduzieren, sollen sich die Versuchspersonen in dieser Arbeit zunächst eigene Gedanken machen, bevor sie den Navigator für Perspektivenvielfalt verwenden. In der journalistischen Praxis kann allerdings kaum überprüft werden, ob die Nutzenden diesen Arbeitsschritt überspringen oder abkürzen. Ein offener Austausch und ethische Standards innerhalb der Redaktion könnten dem entgegenwirken.

Dasselbe gilt für die Frage der Kreativität: Der Navigator für Perspektivenvielfalt ist als Tool gedacht, das unterstützend Perspektiven einnimmt, die in der Redaktion nicht vorhanden sind, und so die Einzelkreativität steigert. Der reale Austausch mit Kolleg*innen soll damit nicht ersetzt, sondern nur ergänzt werden.

In Bezug auf Selbstreferentialität und Kontamination der Daten, stellt sich die Frage, ob das KI-Tool Stereotype verstärkt oder eventuell aufweichen könnte. Können KI-Werkzeuge und Konzepte auch für das Gegenteil verwendet werden? Der Navigator für Perspektivenvielfalt antwortet auf Basis des Datensatzes, mit dem ChatGPT trainiert wird. Wir wissen, dass er Verzerrungen und Diskriminierungen enthält. Indem er so konzipiert ist, dass er Fragen aus mehreren Perspektiven beleuchtet, könnte der Datensatz selbst perspektivenreicher werden, wenn er von vielen Anwender*innen auf diese Weise genutzt wird und deren Medienprodukte weniger Vorurteile, Stereotypen und falsche Narrative enthalten.

Die Beschreibung der Personas auf Basis echter Menschen, deren Emotionen, Tonalität und Sprache sind wesentliche Kriterien für Vielfalt und Perspektivenreichtum in den Antworten der KI. Sensitivity Readers, also Personen der abgebildeten Gruppen könnten die Texte kritisch gegenlesen.

Der Navigator für Perspektivenvielfalt könnte als Anti-Bias-Training für Journalist*innen betrachtet werden, er soll aber keine Entscheidungen für sie treffen.

Mit dem Konzept Positive Freedom by Design fordert die IT-Expertin und Professorin Sarah Spiekermann, Künstliche Intelligenzen so zu programmieren, dass sie grundsätzlich keine ethisch relevanten Handlungsvorschläge auf Basis von Wahrscheinlichkeiten machen. Sie könnten aber interaktive Coaches werden und uns bei der Willensbildung unterstützen [134, p. 235 f.].

Dimensionen der Vertrauenswürdigkeit

Der KI-Prüfkatalog des Fraunhofer Instituts für Intelligente Analyse- und Informationssysteme [135] formuliert sechs Dimensionen der Vertrauenswürdigkeit: Fairness, Autonomie und Kontrolle, Transparenz, Verlässlichkeit, Sicherheit und Datenschutz.

Eine faire KI stellt sicher, dass die Anwendung nicht zu Diskriminierung führt. Die Dimension Fairness ist explizit die Motivation für die Entwicklung des Navigators für Perspektivenvielfalt.

Die Dimension Autonomie und Kontrolle prüft, wie viel Handlungsspielraum sowohl die KI-Anwendung als auch der Mensch haben. Werden Nutzer*innen angemessen durch die KI unterstützt und können ausreichend selbstbestimmt handeln? Der Navigator für Perspektivenvielfalt gibt mit einer strukturierten Vorgehensweise und Kurzbefehlen für die hinterlegten Fragen einen Rahmen vor, der Anwender*innen leitet. Zusätzlich können dem Chatbot individuelle Fragen gestellt werden.

Die Dimension Transparenz betrachtet, ob die Funktionsweise des KI-Tools für Nutzer*innen nachvollziehbar ist und ob Ergebnisse reproduziert werden können. Für die Transparenz wurden die Personas in Grafiken beschrieben und den Testpersonen vorab zugänglich gemacht. Die ausführlichen Textbeschreibungen enthalten weitere Informationen und Zitate aus den Fragebögen, die nicht öffentlich zugänglich sein sollen. Daher gilt für Anhang C ein Sperrvermerk.

Die Dimension Verlässlichkeit beurteilt die Konsistenz der Antworten des Chatbots. Vor der Durchführung des Versuchs wurde der Navigator mit Texten und Transkripten von Beiträgen, die auf der uniCROSS-Website veröffentlicht wurden, getestet. Die KI-Personas antworteten durchweg konsistent.

Die Dimension Sicherheit betrachtet die Absicherung gegenüber Angriffen oder Manipulation. Um dieses Risiko zu minimieren, unterliegt die genaue Formulierung des Prompts in Anhang B einem Sperrvermerk.

Die Dimension Datenschutz bezieht sich auf sensible Daten während der Entwicklung und des Betriebs der KI-Anwendung. Vor der Einführung des Navigators für Perspektivenvielfalt bei uniCROSS müssen Regeln formuliert und die datensensible Nutzung geschult werden. Auch in diesem Punkt wird auf den Sperrvermerk für die ausführliche Beschreibung der Personas in Anhang C verwiesen.

Quellen

[123] J. van den Hoven, P. E. Vermaas und I. van de Poel, Handbook of Ethics, Values, and Technological Design, Dordrecht: Springer, 2015.
[124] A. Deshpande, V. Murahari, T. Rajpurohit, A. Kalyan und K. Narasimhan, Toxicity in ChatGPT: Analyzing Persona-assigned Language Models, 11. April 2023.
[125] S. Gupta, V. Shrivastava, A. Deshpande, A. Kalyan, P. Clark, A. Sabharwal und T. Khot, Bias Runs Deep: Implicit Reasoning Biases in Persona-Assigned LLMs, 27. Januar 2024
[126] ada Learning GmbH, Die neue Ära der Mensch-Maschine-Interaktion, 19. Mai 2024.
[127] A. R. Doshi und O. P. Hauser, Generative AI enhances individual creativity but reduces the collective diversity of novel content, 12. Juli 2024.
[128] I. Shumailov, Z. Shumaylov, Y. Zhao, Y. Gal, N. Papernot und R. Anderson, The Curse of Recursion – Trainings on generated data makes models forget, 24. April 2024.
[129] P. Villalobos, A. Ho, J. Sevilla, T. Besiroglu, L. Heim und M. Hobbhahn, Will we run out of data? Limits of LLM scaling based on human-generated data, 4. Juni 2024.
[130] Q. Mei, Y. Xie, W. Yuan und M. O. Jackson, „A Turing test of whether AI chatbots are behaviorally similar to humans“, PNAS, Vol. 121 No. 9, 2024.
[131] J. Nayar, Not So “Green” Technology: The Complicated Legacy of Rare Earth Mining, 12. August 2021.
[132] E. Strubell, A. Ganesh und A. McCallum, Energy and Policy Considerations for Deep Learning in NLP, Juli 2019.
[133] P. Li, J. Yang, M. A. Islam und S. Ren, Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models, 29. Oktober 2023.
[134] S. Spiekermann, Digitale Ethik. Ein Wertesystem für das 21. Jahrhundert, München: Droemer, 2019.
[135] D. Tomala und S. Loh, „KI-Prüfkatalog,“ Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS (Hrsg.), Sankt Augustin, 2021.