Lernziele
Wissen, welche Daten nötig sind, um ein Modell zu trainieren. Datenquellen einschätzen (öffentlich, intern, sensibel). Wissen, wie bestehende Modelle genutzt werden können (z. B. Open Source, APIs). Rechtliche und ethische Rahmenbedingungen kennen Risiken im Umgang mit Daten erkennen.
Bias, Fairness, Datenschutz, Nachhaltigkeit, Aktualität
Künstliche Intelligenz ist nie neutral und das ist ein Problem. In diesem Kapitel geht es um fünf wichtige Themen: Bias, Fairness, Datenschutz, Nachhaltigkeit und Aktualität.
KI trifft Entscheidungen auf Basis von Daten. Diese Daten stammen von Menschen und enthalten oft Fehler, Lücken, Vorurteile oder eine verzerrte Repräsentation durch gesellschaftliche Ungleichheiten. Das bedeutet: Auch KI kann diskriminieren, benachteiligen oder verzerren.
Bias oder Verzerrung, heißt, dass ein Modell bestimmte Gruppen systematisch benachteiligt oder bevorzugt. Beispiel: Wenn in den Trainingsdaten fast nur Männer vorkommen, erkennt das Modell vielleicht Frauen schlechter, etwa bei Bildern oder Stimmen. Frag Dich immer, wer kommt in den Daten vor? Und wer fehlt?
Fairness: KI-Systeme sollen niemanden benachteiligen, weder bewusst noch unbewusst. Hol Dir Feedback von Menschen mit unterschiedlichen Hintergründen. Prüfe, ob Dein System faire Ergebnisse liefert, zum Beispiel bei Bewerbungen, medizinischen Diagnose-Systemen, Bildgeneration oder Textanalysen.
Datenschutz: Gerade in der Zivilgesellschaft geht es oft um persönliche Informationen: Namen, Adressen, Meinungen. Wenn Du KI nutzt, musst Du sicherstellen, dass personenbezogene Daten geschützt sind, dass Du nur verwendest, was erlaubt ist, und dass klar ist, wo die Daten landen, zum Beispiel bei einem US-Anbieter oder auf einem Server in Europa. Frag Dich: Was braucht die KI wirklich? Und was kann ich weglassen?
Große KI-Anbieter haben ihre Modelle mit im Internet zugänglichen Daten trainiert – ohne Wissen und Einverständnis der Urheber*innen. In Deutschland ist es Stand heute erlaubt, Websites zu scrapen, also Inhalte aus dem Internet herunterzuladen und für das Training eines KI-Systems zu nutzen. Allerdings nur, wenn die Daten nach dem Training wieder gelöscht werden.
Nachhaltigkeit: Große Modelle verbrauchen viel Strom und Wasser. Frage Dich: Muss es dieses große Modell sein? Gibt es kleinere, sparsamere Alternativen? Nutze nur, was sinnvoll ist und nicht alles, was geht.
Aktualität (Single Source of Truth): Halte Deine Daten aktuell und achte darauf, dass alle auf die gleiche Datenquelle zugreifen. Änderungen sollten nur an einer Stelle im System gemacht werden und für alle sofort sichtbar sein. Das nennt man: die Single Source of Truth.
Rechtliche Rahmenbedingungen
Es gibt drei wichtige Gesetze, die Du beachten musst: den European AI Act, die Datenschutzgrundverordnung und das Urheberrecht.
Der European AI Act klassifiziert KI-Systeme nach ihrem Risikopotenzial: Systeme mit unannehmbarem Risiko sind verboten. Dazu gehören Emotionserkennung, Social Scoring oder die Erstellung von Personenprofilen. Ein hohes Risiko bedeuten jede Art von automatisierten Bewertungssystemen oder KI in der medizinischen Forschung. Hier gelten hohe Auflagen. Systeme mit beschränktem Risiko sind Chatbots oder adaptive Lernsysteme, die den individuellen Lernfortschritt analysieren und speichern. KI-Systeme mit geringem Risiko sind zum Beispiel Übersetzungstools, Tools zur Recherche oder die Auswertung von Forschungsdaten. Außerdem virtuelle Tutoren, die keine personenbezogenen Daten verarbeiten.
Grundsätzlich stellt sich die Frage, wer für fehlerhafte oder schädliche Ergebnisse haftet. KI-Systeme sollten daher möglichst transparent konzipiert werden, damit Ergebnisse nachvollziehbar sind. KI-Systeme sollten grundsätzlich keine Entscheidungen treffen. Die menschliche Kontrolle muss immer gewährleistet sein.
Der EU AI Act schreibt außerdem vor, dass Nutzende KI-kompetent sein müssen. D.h. Anbieter und Betreiber von KI-Systemen müssen Mitarbeitende schulen. Dabei geht es um technisches Verständnis, die praktische Anwendung sowie ethische und rechtliche Aspekte.
Bei der Datenschutzgrundverordnung, kurz DSGVO geht es vor allem um den Schutz sensibler Daten. Persönliche Daten gelten als besonders schützenswert. Bei der Konzeption von KI-Systemen muss deshalb überlegt werden, welche Daten eventuell anonymisiert oder pseudonymisiert werden müssen. Persönliche Daten sollten grundsätzlich nicht in ein KI-System eingegeben werden.
Das Urheberrechtsgesetz ist relevant bei generativer KI. KI-generierte Werke, also der Output, sind derzeit in Deutschland nicht urheberrechtlich geschützt: Urheber*innen können nur natürliche Personen sein. Geschützt sind außerdem nur Werke und keine Ideen. Ein Prompt würde in diesem Kontext einer Idee entsprechen.
Was den Input, also den Datensatz betrifft, müssen Anbieter von KI-Systemen prüfen, ob Urheberrechte Dritter verletzt werden. Die KI könnte beispielsweise ein Bild generieren, das sehr nahe an dem Werk einer Künstlerin oder dem Logo eines Unternehmens ist und damit deren Urheberrecht verletzen.
ÜBUNG Fallanalyse
Hier sind zehn Möglichkeiten, KI in gemeinwohlorientierten Unternehmen einzusetzen. Welche Chancen und Risiken fallen dir zu jedem Beispiel ein? Mit welchen Maßnahmen könnten Risiken minimiert werden?
- Automatische Übersetzung in Leichte Sprache
- Mehrsprachige Kommunikation
- Barrierefreie Webseiten
- Chatbots für häufige Fragen
- Automatische Protokoll- und Notizerstellung
- Unterstützung bei Förderanträgen
- Analyse von Umfragedaten
- Planung von Veranstaltungen
- Monitoring von Social Media
- Ideenfindung für Kampagnen
Lade dir das Übungsblatt herunter und fülle es aus:
Arbeitsblatt Fallanalyse (Word-Dokument)
Arbeitsblatt Fallanalyse (pdf zum Ausdrucken)
Hier findest du das Übungsblatt mit Lösungsvorschlägen:
