Verwendung und Probleme der KI
Der Fortschritt von künstlicher Intelligenz eröffnet uns praktische alltagsnahe Anwendungsbereiche. Aber auch zum Spielen sind KI-gesteuerte Systeme interessante Partner. Gleichzeitig müssen wir uns mit ethischen Fragen und der Verantwortung auseinandersetzen, die mit dem Einsatz von KI einhergehen.
Info für Lehrende
Mehr zu SchuBu+
Anwendungsbereiche der KI
In den letzten Jahrzehnten hat die KI-Forschung große Fortschritte gemacht. Mittlerweile wird die KI in vielen verschiedenen Bereichen eingesetzt.
Die KI kann in vielen Bereichen sinnvoll eingesetzt werden. Sie wird aber auch verwendet, um Meinungen zu beeinflussen und möglichst viele Menschen zum Kauf von Produkten zu verführen.
Spielen mit KI
Bei Spielen sieht man besonders gut, wie eine KI lernt. Denn in einem Spiel erkennt man immer, ob man sich bei dem Spiel verbessert oder nicht. Diese Information nutzen Menschen und KI-Programme, um sinnvoll zu lernen.
Lies den Text und mache dann die Übungen dazu!
Info für LehrendeKI-Chatbots
Ein Chatbot ist ein elektronisches Dialogsystem, das einen menschlichen Chatteilnehmer imitiert. KI-Chatbots
Beachte: Während der Verwendung von KI-Chatbots niemals persönliche oder sensible Daten bekanntgeben!
Mit einem KI-Chatbot kannst du auch ein Textabenteuer (Textadventure) erleben. Probiert es aus! Gebt einem KI-Chatbot einen der folgenden Arbeitsaufträge (oder überlegt euch selbst einen):
Info für LehrendeIch möchte mit dir ein Textabenteuer spielen. Führe mich durch ein Abenteuer, in dem ich versuche, …
- … aus dem Gefängnis auszubrechen.
- … ein Dorf von der Herrschaft eines mächtigen Zyklopen zu befreien.
Kritik
KI-Chatbots eröffnen faszinierende Möglichkeiten, in kürzester Zeit Probleme zu lösen und Aufgaben zu erledigen. Aber Vorsicht: Ein KI-Chatbot liefert oft falsche Informationen. Denn der Lernalgorithmus und die Textdatensätze eines KI-Chatbots basieren auf ungeprüften Daten aus dem Internet. Und diese Daten sind oft falsch, unzureichend, ungenau oder irreführend. Daher sollten wir einen KI-Chatbot immer nur behutsam und mit Bedacht verwenden.
Die Grundregeln lauten:
- nie auf eine KI verlassen!
- jede Aufgabe selbst kritisch hinterfragen!
- wichtige Entscheidungen selbst treffen!
Besprecht gemeinsam in der Klasse:
- Warum sollte ein KI-Chatbot nicht als Ersatz für das Feedback von Lehrkräften oder anderen Schülerinnen und Schülern verwendet werden?
- Inwiefern könnte sich die zu häufige Nutzung von KI-Chatbots negativ auf eure eigenen Fähigkeiten auswirken?
Warum macht eine KI Fehler?
Wir haben unsere KI „Kiara“ trainiert, Dreiecke zu erkennen. Danach hat sie aber Dreiecke mit der Spitze nach unten meist nicht erkannt.
Die KI erkennt Muster, die für die Entscheidung nicht relevant sind. Das ist ein häufiges Problem beim maschinellen Lernen.
Und das ist auch das Problem bei Kiara. Ihre Trainingsdaten enthalten nur Dreiecke mit der Spitze nach oben. Dieses Muster wird von Kiara erkannt. Daher geht sie davon aus, dass ein Dreieck nur dann ein Dreieck ist, wenn die Spitze nach oben zeigt.
Falsche Zuordnungen
Quiz: Versuche zu erkennen, warum die KI immer wieder falsche Zuordnungen macht!
Beim maschinellen Lernen werden Objekte
Schaut euch noch einmal die vier Beispiele im Quiz Falsche Zuordnungen an und besprecht dann in Kleingruppen folgende Fragen:
- Welche Merkmale sind für euch wichtig, um Hunde von Katzen (oder Menschen von Pferden) zu unterscheiden?
- Kann auch eine Maschine diese Merkmale erkennen und verwenden? Warum?
- Wie müssten die Trainingsdaten in den vier Beispielen verändert werden, damit die KI richtig entscheidet?
Eine Zuordnung zu Kategorien ist nicht immer eindeutig. Für uns Menschen ist es einfach, Hunde von Katzen zu unterscheiden, weil wir die wirkliche Welt sehen können. Eine Maschine aber erkennt auf einem Bild nicht wirklich eine Katze, sondern sie berechnet mithilfe der Bildpixel die mathematische Wahrscheinlichkeit, mit der sich auf dem Bild eine Katze befinden könnte.
Wenn die Maschine ein falsches Muster erkennt und daher ein falsches Ergebnis liefert, liegt das oft auch daran, dass die Trainingsdaten ungenau, unvollständig oder fehlerhaft sind. Das nennt man Bias.
Die Qualität einer KI ist nie besser als die Qualität der Trainingsdaten. „Garbage in – Garbage out“ (was an Müll hineinkommt, kommt an Müll wieder heraus).
Vom Fehler zur Diskriminierung
Vorurteile vereinfachen die Welt. Allerdings führen sie auch zu ungerechtfertigten Benachteiligungen, denn sie verhindern es, faktenbasierte Entscheidungen zu treffen.
Wenn eine KI ein Ergebnis liefert, mit dem bestimmte Menschen benachteiligt werden, dann liegt das oft daran, dass Menschen Vorurteile haben. Und wenn ein KI-Chatbot respektlose oder rassistische Äußerungen von sich gibt, dann oft deshalb, weil Menschen es ihm antrainiert haben.
Ein KI-System übernimmt menschliche Fehler. Menschen, die in der Gesellschaft seit langem benachteiligt werden, werden nun durch den Einsatz von KI oft noch mehr benachteiligt.
Welches Problem kann entstehen, wenn die KI dein Gesicht nicht erkennt? Findet ein Beispiel dafür!
Fehler im Code oder in den Trainingsdaten von KI-Systemen können dazu führen, dass bestimmte Menschen systematisch benachteiligt werden. Deshalb ist es sehr wichtig, Fehler möglichst zu vermeiden oder zumindest rückwirkend zu beheben.
Fehler in KI-Systemen beheben
Die Auswahl der Trainingsdaten hat großen Einfluss auf die Ergebnisse einer KI. Um Fehler im KI-System möglichst zu vermeiden, sollten die Trainingsdaten umfangreich und vielfältig sein. Es sollte im Idealfall von allem etwas enthalten sein. Für die Gesichtserkennung zum Beispiel bedeutet das: Je mehr unterschiedlich aussehende Gesichter in den Trainingsdaten enthalten sind, umso höher ist die Wahrscheinlichkeit, dass das KI-Programm alle Gesichter richtig erkennt.
Kiara (Training 3)
Verbessere die Trainingsdaten von Kiara so, dass Kiara möglichst alle Dreiecke, Kreise und Quadrate erkennen kann!Die Trainingsdaten von Kiara sind nun umfangreich und vielfältig. Daher macht Kiara nun nicht mehr so viele Fehler. Kiara hat effektiv gelernt.
Die Qualität der Trainingsdaten ist entscheidend für die Qualität einer KI. Ein Data Scientist (Datenwissenschaftler*in) ist für die Qualität der Trainingsdaten zuständig.
Ebenso wie eigene Entscheidungen müssen auch die Entscheidungen von KI-Systemen kritisch betrachtet werden, da letztlich immer Menschen für deren Einsatz und damit auch für die möglichen Folgen verantwortlich sind.
Ethik und Verantwortung
Entscheidungen von KI-Systemen sind oft auch ethisch fragwürdig. Wer übernimmt die Verantwortung, wenn ein selbstfahrendes Auto einen Menschen verletzt? Kann und darf ein Pflegeroboter die Arbeit von Menschen ersetzen? Diese und ähnliche Fragen werden in Ethikkommissionen und politischen Gremien diskutiert. Viele Expertinnen und Experten sind sich einig, dass bestimmte Entscheidungen besser ausschließlich von Menschen getroffen werden sollten, weil diese dann auch die Verantwortung dafür übernehmen können und müssen.
Überlegt euch gemeinsam eine weitere Frage, die die Ethikkommission diskutieren soll!
Um den Umgang mit KI zu regeln, müssen nationale und internationale Regeln und Gesetze festgelegt werden. Nur so können bestimmte Formen von KI eingeschränkt oder sogar verboten werden. Der AI Act der EU ist ein solches Regelwerk, das von der Europäischen Union geschaffen wurde, um den Einsatz von Künstlicher Intelligenz zu regulieren. Dieses Regelwerk soll sicherstellen, dass die KI möglichst für alle nützlich ist und niemand benachteiligt wird.
Hacks und Tricks
- KI-generiertes Rollenspiel
- Wortspiel von Google
- Zeichenspiel von Google