Algorithmische Voreingenommenheit – Wie neutral ist künstliche Intelligenz?

In diesem Baustein reflektieren die Teilnehmenden ihren Alltag mit künstlicher Intelligenz (KI) und entwickeln ein Bewusstsein für Chancen, Probleme und Risiken. Sie lernen verschiedene Anwendungsfelder kennen, die oft überraschend sind, und erhalten Einblicke in Funktionsweisen sowie mögliche Fehler von KI-Systemen. Dabei wird deutlich, dass KI nicht neutral ist: Sie kann diskriminierend wirken, da sie stark von den Menschen, die sie programmieren, und den verwendeten Trainingsdaten abhängt.

Der Baustein kombiniert Selbstreflexion, eine bildgestützte Einführung und Gruppenarbeit mit Fallbeispielen. Diese Beispiele zeigen, wie KI voreingenommen sein kann und welche Schwierigkeiten in der Programmierung entstehen. Die Ergebnisse der Gruppenarbeit werden im Plenum zusammengetragen und mithilfe des Werkzeugs „Technikkreis der Technik“ reflektiert.

Zum Abschluss diskutieren die Teilnehmenden die Wirksamkeit von freiwilligen Selbstverpflichtungen der Industrie anhand der KI-Ethikrichtlinien von Microsoft. Ziel ist es, kritisch über den Einsatz von KI nachzudenken und Handlungsspielräume zu erkennen.

TitelAlgorithmische Voreingenommenheit – Wie neutral ist künstliche Intelligenz?
ThemaAuswirkungen, die Vorurteile in KI-Systemen auf die Menschheit haben, sowie wiederum die Auswirkungen der Menschheit auf KI-Systeme
Typanalog
SchlagwörterKünstliche Intelligenz, KI-Systeme, Algorithmen, Voreingenommenheit, Vorurteile, Diskriminierung, Hightech
KompetenzenPerspektivenübernahme, Antizipation, disziplinübergreifende Erkenntnisgewinnung, Umgang mit unvollständigen und überkomplexen Informationen, Motivation, Reflexion auf Leitbilder, eigenständiges Handeln
Lernformenkooperativ, faktenorientiert
MethodenSelbstreflexion mit Fragen, Bildersuche, Analyse von Fallbeispielen in Kleingruppenarbeit, Reflektion mit Blue Engineering Werkzeug im Plenum
WerkzeugeTeuchnikskreis der Technik
Gruppengröße4 - 24
Dauer75 min
MaterialLaptop, HDMI-Kabel, Beamer
RäumeSeminarraum mit beweglichen Tischen und Stühlen
Qualitätgut
Semester

Inhaltsverzeichnis

Vorbereitung

Vorbereitung der Moderation

Die Moderation erarbeitet sich, was Voreingenommenheit in Bezug auf KI bedeutet. Um sich einen Überblick zu verschaffen, kann dieses Video verwendet werden.Zur Vorbereitung ist es wichtig, eine Vorstellung davon zu bekommen, welche Vielfalt an KI-Typen es gibt, wie sie eingesetzt werden können und welche Voreingenommenheit auftreten kann. Die Quellen können genutzt und müssen gegebenenfalls aktualisiert werden.

Zudem bereitet die Moderation alle Präsentationsfolien vor, druckt die Fallbeispiele & Formen algorithmischer Voreingenommenheit aus und stellt die Stühle in U-Form bereit, sodass die Teilnehmenden die Präsentation gut sehen können. Die Tische stehen zunächst am Rand des Raumes.

Ablaufplan

00. Minute - Begrüßung

Die Moderation gibt den Teilnehmenden eine kurze Einführung in den Baustein. Sie erwähnt, dass KI-Systeme sehr komplex und allgegenwärtig sind und in diesem Baustein nicht im Detail beleuchtet werden können, was jedoch nicht davon abhalten sollte sich mit algorithmischer Voreingenommenheit und ihren Folgen auseinanderzusetzen.

Sie nennt eine Definition von Künstlicher Intelligenz:

“Künstliche Intelligenz ist der Überbegriff für Anwendungen, bei denen Maschinen menschenähnliche Intelligenzleistungen erbringen. […] Die Grundidee besteht darin, durch Maschinen eine Annäherung an wichtige Funktionen des menschlichen Gehirns zu schaffen - Lernen, Urteilen und Problemlösen.”Zitat: Was ist künstliche Intelligenz? | KI Definition | SAP News Center

05. Minute - Warm Up und erste Reflexion

Die Moderation leitet eine kurze Plenumsdiskussion mit folgenden Fragen ein:

  • Mit welchen Technologien mit KI-Systemen kommt ihr persönlich im Alltag in Kontakt?
    • Habt ihr Angst vor KI in eurem täglichen Leben und im Allgemeinen? Warum?

      Sie macht deutlich, dass es zunächst um KI-Systeme im Allgemeinen geht.

      10. Minute - Warm Up - Algorithmische Voreingenommenheit von Suchmaschinen

      Es wird eine gemeinsame Bildersuche auf Google zu folgenden Begriffen auf dem Beamer durchgeführt:

      • Pflegekraft
        • Vorstand
          • schöne Menschen
            • Pärchen

              Dazu sollen die folgende Fragen diskutiert werden:

              • Wer ist (hauptsächlich) auf den Bildern zu sehen?
                • Wer ist (fast) nicht auf den Bildern zu sehen?
                  • Seht ihr Zusammenhänge zu Vorurteilen und Voreingenommenheit?

                    Es ist wichtig, dass die Moderation beim Warm Up Denkanstöße gibt, falls die Teilnehmenden die Fragen zu oberflächlich beantworten. Nachfragen bezüglich Geschlecht, sexueller Orientierung, ethnischer Herkunft, Behinderung, Alter, vermuteter finanzieller Stellung, … der abgebildeten Personen können helfen. Möglichst viele Formen von Diskriminierung sollten angesprochen werden.

                    25. Minute - KI-Anwendungen und ihre Voreingenommenheit

                    Die Teilnehmenden bilden 4 Gruppen durch Durchzählen von 1 bis 4, wobei die Gruppen aus nicht mehr als 6 Teilnehmenden bestehen sollte. Bei mehr Teilnehmenden werden mehrere Gruppen zu gleichen Themen gebildet. Jede Gruppe nimmt sich selbstständig Tische vom Rand und bearbeitet die Arbeitsaufträge zu den Fallbeispielen. Diese werden über den Beamer gezeigt und gemeinsam besprochen, wobei darauf hingewiesen wird, dass die Aufgaben der Reihenfolge nach bearbeitet werden sollen.

                    Aufgabe 1 - Lest und versteht euer Fallbeispiel (~5 min)

                    • Lest euch in euer Fallbeispiel ein und diskutiert in der Gruppe:
                      • Was ist/war die ursprüngliche Aufgabe des KI-Systems?
                        • Mit welchen Daten arbeitet das KI-System?
                          • Wer hat das KI-System programmiert?

                            Aufgabe 2 - Kategorisiert und analysiert die algorithmische Voreingenommenheit (~13 min)

                            • Lest euch die Texte zu den Formen algorithmischer Voreingenommenheit durch
                              • Was für eine Form von algorithmischer Voreingenommenheit tritt auf?
                                • Warum treten diese Formen von Voreingenommenheit auf?
                                  • Wer wird durch das KI-System diskriminiert, wer wird bevorteilt?
                                    • Was für eine Auswirkung hat die Voreingenommenheit für die betroffenen Personen(gruppen)?

                                      Aufgabe 3 - Bereitet euch auf eure Präsentation vor (~2 min)

                                      • Legt fest was ihr vorstellt und wer (eine Person)
                                        • Orientiert euch an folgenden Fragen:
                                          • Was war euer Anwendungsbeispiel und welche Formen von Algorithmischer Voreingenommenheit treten auf?
                                            • Was sind die Auswirkungen auf welche Personengruppen?

                                              50. Minute - Präsentation der Gruppenarbeit und Diskussion

                                              Die Teilnehmenden kehren zu ihrer ursprünglichen Sitzordnung (U) zurück und je eine Gruppe präsentiert ihre Ergebnisse. Die Moderation achtet darauf, dass die Gruppen nicht länger als je 1-2 Minuten präsentieren.Danach lässt sie das Werkzeug vorlesen und übergibt das Wort ans Plenum. Das Werkzeug und die Diskussionsfragen werden mit einem Beamer für alle sichtbar an die Wand projiziert und eine offene Diskussion eröffnet.

                                              Teuchnikskreis der Technik 

                                              Technik muss nicht teuflisch sein, um einen Teufelskreis anzutreiben.

                                              Die Probleme der aktuellen Technik werden mit neuer Technik gelöst, die wiederum neueProbleme verursacht, die dann noch neuerer Technik bedarf, um die Probleme der neuenTechnik zu lösen. Dies ist aber nur möglich, wenn auch noch neue Probleme in Kauf genommenwerden, die dann einer noch viel neueren Technik bedürfen…

                                              Diskussionsfragen fürs Plenum

                                              • Was sind die Unterschiede und Gemeinsamkeiten der Fallbeispiele?
                                                • Wie neutral kann künstliche Intelligenz sein?
                                                  • Was bedeutet das Werkzeug “Teuchnikskreis der Technik” im Zusammenhang mit algorithmischer Voreingenommenheit für euch?
                                                    • Wer verursacht den “Teuchnikskreis der Technik”?
                                                      • Wer steht in der Verantwortung, den “Teuchnikskreis der Technik" zu brechen?
                                                        • Ist es ein Privileg, keine Angst vor KI-Systemen im Alltag und im Allgemeinen haben zu müssen?

                                                          70. Minute - Abschluss, Nachbereitung und Feedback

                                                          Die Moderation schließt die Diskussion und bittet per 5-Finger-Methode um Feedback:

                                                          • Daumen: Das war super!
                                                            • Zeigefinger: Das könnte besser gemacht werden.
                                                              • Mittelfinger: Das hat mir nicht gefallen!
                                                                • Ringfinger: Das nehme ich mit.
                                                                  • Kleiner Finger: Das kam zu kurz!

                                                                    Inspiration fürs Lernjournal

                                                                    • Verschaffe dir einen Überblick über sie selbstverpflichtenden 
                                                                      • Welche Aspekte bieten Lösungen?
                                                                        • In welchen Aspekten seht ihr weiterhin Potential für Diskriminierung?
                                                                          • Welchen Einfluss hat Microsoft als Autor auf die Lösungen und inwiefern ist das problematisch?
                                                                            • Wer muss eurer Meinung nach handeln, um algorithmischer Voreingenommenheit vorzubeugen? Wer sollte Mitspracherecht haben?

                                                                              Anmerkungen und Hinweise

                                                                              Von den Verfasser_innen

                                                                              Es handelt sich um eine vom Original Baustein abweichende Version, bei welcher Vor- und Nachbereitung bewusst ausgelassen wurden.

                                                                              Anmerkungen aus dem Original:

                                                                              • Beachtet, dass der Standort einen Einfluss auf die Suchergebnisse im Warm Up haben kann (z. B. IP-Adresse bei der Nutzung von Suchmaschinen)
                                                                                • Achtet auf das Zeitmanagement (z.B. klare Kommunikation des Zeitplans an die Teilnehmenden). Die Zeit ist knapp bemessen und wenn alle wichtigen Aspekte angesprochen werden sollen, muss darauf geachtet werden.

                                                                                  Nach weiteren Durchführungen

                                                                                  Noch ausstehend

                                                                                  Literaturhinweise und Quellen

                                                                                  • Fastai - Unsere Hauptquelle, großartiges umfassendes Ethik-Kapitel über Vorurteile und KI, das in einem regulären Deep-Learning-Kurs verwendet wird, um zukünftige Entwickler zu sensibilisieren:Howard, J. & Gugger, S. (2020). Deep Learning for Coders with Fastai and PyTorch: AI Applications Without a PhD (1. Aufl.). O’Reilly Media.
                                                                                    • Ethikrichtlinien für Künstliche Intelligenz? Wie wär’s mit Gesetzen?
                                                                                      • Crash Course AI #18
                                                                                        • The Verge - Bias in einem Recruiting-Tool bei Amazon
                                                                                          • Vox - Why algorithms can be racist and sexist
                                                                                            • The Guardian - Do Google’s ‚unprofessional hair‘ results show it is racist?
                                                                                              • Technology Review
                                                                                                • Science Direct - “Why We Should Have Seen That Coming: Comments on Microsoft’s Tay“Experiment,” and Wider Implications”
                                                                                                  • TED - Can we protect AI from our biases?
                                                                                                    • TEDx - Stop assuming data, algorithms and AI are objective
                                                                                                      • Survival of the best Fit
                                                                                                        • Technology Review
                                                                                                          • Technology Review - Criminal Justice AI
                                                                                                            • WIRED - AI Is Biased. Here’s How Scientists Are Trying to Fix It
                                                                                                              • WIRED - The Best Algorithms Struggle to Recognize Black Faces Equally
                                                                                                                • Microsoft - Understand Responsible AI
                                                                                                                  • Künstliche Intelligenz in der Verbrechensbekämpfung | Heinrich-Böll-Stiftung
                                                                                                                    • Amazon Scraps Secret AI Recruiting Tool that Showed Bias against Women
                                                                                                                      • Ethikrichtlinie von Microsoft

                                                                                                                        Arbeitsmaterialien zum Ausdrucken

                                                                                                                        Fallbeispiele & Formen algorithmischer Voreingenommenheit.pdf (90,9 KB)