Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Rückblick: Bildungssalon Künstliche Intelligenz in der Schule | Bildungssalon | bpb.de

Bildungssalon Rückblick: Bildungssalon Influencer und politische Meinungsbildung Rückblick: Bildungssalon Künstliche Intelligenz in der Schule Bildungssalon: Ein Jahr nach den ersten Schulschließungen – was hat sich verändert? Bildungssalon: Digital landauf landab: Best-Practice-Ansätze für Digitale Bildung auf dem Land Bildungssalon: Nachhaltige Schule digital Bildungssalon: Historisch-politische Bildung mit Virtual und Augmented Reality VR/AR in der historisch-politischen Bildung – Chancen und Risiken Bildungssalon: Lernen mit Virtual und Augmented Reality Bildungssalon: Baust du noch oder lernst du schon?

Rückblick: Bildungssalon Künstliche Intelligenz in der Schule

Mia Schepe Theresa Kühnert

/ 4 Minuten zu lesen

Algorithmische Diskriminierung, Teachable Machine oder starke und schwache KI sind Begriffe, die Lehrerinnen und Lehrer selten im politisch-historischen Unterricht besprechen. Dass aber die Beschäftigung mit dem Themenfeld Künstliche Intelligenz und seinen Begrifflichkeiten auch in Fächern wie Politik oder Geschichte wichtig ist, das wurde in unserem Bildungssalon am 31. März 2022 deutlich.

Die Teilnehmenden des Bildungssalon beantworteten zu Beginn die Frage, wie sie KI schon im Unterricht eingesetzt haben, mithilfe des Umfragetools Mentimeter. (© bpb/ Mia Schepe)

Was ist passiert?

Am 31. März 2022 veranstaltete die Werkstatt einen digitalen Bildungssalon zum neuen Schwerpunktthema "Lernen mit Algorithmen". Mit dabei waren Bastian Dietzel und Sebastian Gawron von Externer Link: "KI macht Schule" und Ute Schmid und Adrian Schneider von der Universität Bamberg. Gemeinsam mit 25 Teilnehmenden aus der Bildenden- und Lehrenden-Community der Werkstatt probierten wir Tools für die Vermittlung der Funktionsweise von KI aus und diskutierten über den Einsatz Künstlicher Intelligenz im Unterricht.

Schwache und Starke KI

Wie Künstliche Intelligenz (KI) funktioniert, das erklärte Ute Schmid direkt zu Beginn und räumte dabei mit ein paar Vorurteilen auf: Die "Intelligenz" einer KI sei nicht im Sinne von menschlicher Intelligenz zu verstehen.

Zitat

Das Problem ist, dass wir, wenn wir Intelligenz hören, eine Alltagsvorstellung davon haben. Niemand würde sagen, du bist intelligent, wenn du Katzen erkennen kannst. Aber daran hat sich die KI lange die Zähne ausgebissen.

Die Künstlichen Intelligenzen, die momentan programmiert werden, besitzen Schmid zufolge, eine sogenannte schwache Intelligenz. Das heißt, sie sind in einer kleinen Tätigkeit, wie zum Beispiel der Sprachverarbeitung, sehr gut und können dort eigenständig Entscheidungen treffen. Abseits dieses Tätigkeitsbereichs sind schwache KIs aber nicht entscheidungsfähig. Starke KI ist dagegen das, was wir aus Science-Fiction-Filmen kennen: eine menschenähnlich handelnde Maschine, die ein Gewissen und eine allgemeine Intelligenz besitzt. Davon sind wir, so Ute Schmid, noch weit entfernt:

Zitat

Ich glaube, dass KI-Systeme in vielen Bereichen mit Menschen mithalten könnten, aber ich persönlich glaube nicht, dass es gelingen wird, KI-Systeme zu entwickeln, die allgemein intelligent sind.

Grundproblem des induktiven Lernens

Adrian Schneider von der Uni Bamberg stellte ergänzend zur theoretischen Einführung von Ute Schmid die Lern- und Workshop-Plattform KI-Campus vor. Der Kurs, den er beispielhaft zeigte, ist darauf ausgelegt, Grundschullehrkräften die wichtigsten Funktionsmechanismen von KI zu vermitteln.

Im Bildungssalon stellte Adrian Schneider den Kurs "Data Literacy in der Grundschule" auf den Seiten des KI-Campus vor. (© bpb/ Mia Schepe)

Gemeinsam erprobten die Teilnehmerinnen und Teilnehmer, ob sie aus einer Auswahl an Beispielobjekten ein Muster erkennen und dieses fortführen können. Genau so, also anhand von Beispielen und Wiederholungen, lernt auch ein Computer beim maschinellen Lernen. Das Erraten des Musters stellte sich als schwieriger heraus als vermutet. Immer wieder traten Fälle auf, die im Beispiel nicht abgedeckt und die über eine Verallgemeinerung nicht lösbar waren. So sei es auch nicht verwunderlich, erklärte Adrian Schneider, dass eine KI, die auf diese Weise lernt, nie zu 100 Prozent korrekt sein kann. In der Wissenschaft wird das Spannungsfeld zwischen Lernbeispielen und Realität das "Grundproblem des induktiven Lernens" genannt.

Algorithmische Diskriminierung

Künstliche Intelligenz und ihre Funktionsweise – das sind nicht nur Themen für den Physik- oder Informatikunterricht, stellte Sebastian Gawron von KI macht Schule klar. Zwar sei es wichtig, zunächst einmal zu verstehen wie eine KI funktioniert. Im zweiten Schritt müsse dann aber auch darüber geredet werden, wie die gesellschaftlichen Konsequenzen von KI aussehen.

Auch wenn KIs nur mit schwachen Intelligenzen programmiert sind, können ihre Entscheidungen gesellschaftliche Bedeutung haben. Das zeigte Bastian Dietzel an einem plastischen Beispiel. Anhand des von Google entwickelten Tools Teachable Machine brachte er einer KI mithilfe von Fotos seiner Webcam bei zu erkennen, ob jemand eine Geschichtsmaske trägt und wenn ja, ob diese richtig getragen wird. So eine einfache Gesichtserkennung könnte beispielsweise im Supermarkt eingesetzt werden, um zu überprüfen, dass nur Menschen mit Geschichtsmaske den Laden betreten. Im Anschluss an den Lernprozess kann die KI nun erkennen, ob Bastian Dietzel eine Maske trägt.

Bastian Dietzel zeigt die Benutzeroberfläche der Anwendung Teachable Machine und erklärt daran beispielhaft "Algorithmische Diskriminierung". (© bpb/ Mia Schepe)

Allerdings konnte das Tool die Maske in diesem Fall nur dann erkennen, wenn er, wie in dem Beispielfoto oben links zu sehen, eine weiße Maske trägt. Eine schwarze Maske konnte von der KI hingegen nicht gelesen und erkannt werden.

An dem Beispiel wird deutlich, dass eine KI kein eigenes Verständnis eines Gegenstands hat, sondern sich aus einem Datensatz bedient – also aus den Beispielen, die in der Regel von Menschen im Vorhinein festgelegt wurden. Dadurch kann das Problem einer algorithmischen Diskriminierung entstehen, indem gesellschaftliche Diskriminierungen – so etwa in Bezug auf Alter, Geschlecht oder Hautfarbe – durch die KI reproduziert werden.

Tools zum Lernen mit und durch KI für den politisch-historischen Unterricht

Im Bildungssalon stellten Bastian Dietzel, Sebastian Gawron, Adrian Schneider und Ute Schmid verschiedene Programme vor, die kreativ und spielerisch KI im Unterricht vermitteln können. Leider sind viele der Lernspiele zu KI noch nicht von europäischen Anbietern erhältlich, und OER-Materialien zum Thema sind kaum vorhanden.

Externer Link: KI-Campus ist eine digitale Plattform, die Lernangebote über Künstliche Intelligenz anbietet. Zur Auswahl stehen Kurse, Videos, Podcasts und Workshop zu den Themen Medizin, Schule, Maschinelles Lernen und Daten. Alle Ressourcen sind kostenlos und die Materialien vom KI-Campus selbst unter offener Lizenz verfügbar. Das Pilotprojekt wurde vom Stifterverband, dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), dem Hasso-Plattner-Institut (HPI), NEOCOSMO und dem mmb Institut entwickelt und wird vom Bundesministerium für Bildung und Forschung gefördert. Lehrende und Bildende finden sowohl Materialien, die für Unterrichtseinheiten genutzt werden können, als auch Kurse zur eigenen Weiterbildung.

Externer Link: Quick Draw with Google ist ein Programm, bei dem man gegen den Algorithmus „Montagsmaler“ spielen kann. Die Website gibt zunächst ein Objekt vor, das gezeichnet werden soll.

Die KI von Google Quick Draw wird besser im Erkennen von Bildern, desto häufiger sie benutzt wird. (© bpb/ Mia Schepe)

Eine Künstliche Intelligenz errät, was der Spieler oder die Spielerin malt. Sie wird besser dabei im Erkennen, je öfter ein bestimmtes Objekt gezeichnet wird. Das Datenset der abertausenden Zeichnungen von Usern und Userinnen ist in Open Source zugänglich und kann für eigene KI-Projekte genutzt werden. Quick Draw ist ein von Google unterstütztes Projekt.Bei der Verwendung ist keine Anmeldung erforderlich, es werden jedoch Daten der Nutzerinnen und Nutzer erhoben. Welche das genau sind, kann in den allgemeinen Externer Link: Datenschutzbestimmungen von Google nachgelesen werden.

Externer Link: Teachable Machine ist ein browserbasiertes Programm, dem man über die Webkamera beibringen kann, bestimmte Posen, Objekte oder Personen zu erkennen.

Mithilfe von Training und häufiger Wiederholung kann die Teachable Machine Unterschiede zwischen Bildern erkennen. (© bpb/ Mia Schepe)

Nachdem eine Reihe von Fotos geschossen wird, nimmt die Teachable Machine diese als Vorlage, um das Objekt, die Person oder Pose zu erkennen. Am Beispiel des Lernprozesses der Teachable Machine erklärte uns Bastian Dietzel das Problem der Algorithmischen Diskriminierung. Teachable Machine wurde von Google entwickelt und richtet sich insbesondere an Jugendliche und Kinder. Obwohl kein Log-In erforderlich ist werden auch hier über die Nutzerinnen und Nutzer Informationen gesammelt, die in den Externer Link: Datenschutzbestimmungen von Google nachgelesen werden können.

Über die Referentinnen und Referenten und ihre Initiativen

Ute Schmid ist Professorin für Angewandte Informatik, insbesondere Kognitive Systeme an der Universität Bamberg und forscht zu künstlicher Intelligenz, zum Machine-Learning-Prozess und kooperativem und interaktivem Lernen. Sie setzt sich für die Bildung zu KI und Computerwissenschaften an Grundschulen ein, unter anderem als Vorsitzende des Arbeitskreises "KI an Schulen".

Adrian Schneider ist wissenschaftlicher Mitarbeiter an der Universität Bamberg in der Forschungsgruppe Elementarinformatik. Der studierte Politikwissenschaftler wirkt im Projekt Externer Link: "Data Literacy Kompetenz in der Primarstufe" mit, das Grundschullehrkräften Tools zur Vermittlung von KI an Schülerinnen und Schüler an die Hand gibt.

Der Arbeitskreis Externer Link: "KI an Schulen" erarbeitet an der Universität Bamberg seit Mai 2021 Empfehlungen für das Fachgebiet KI als Lehrinhalt im Unterricht. Dabei wird insbesondere die Vermittlung über die Funktionsweise von KI und die Didaktik im Informatikunterricht in den Fokus gerückt.

Bastian Dietzel hat einen Master in Kinder- und Jugendmedien und engagiert sich neben seinem Beruf als Projektleiter im Ehrenamtlichen Netzwerk "KI macht Schule". In dieser Position stellte er uns im Bildungssalon Tools zur Vermittlung von KI im Unterricht vor.

Sebastian Gawron ist Wirtschaftswissenschaftler und beruflich als Projektleiter und Digitalisierungsbotschafter tätig. Bei der Initiative "KI macht Schule" engagiert er sich ehrenamtlich und hat uns im Bildungssalon kreative Werkzeuge zum Lernen über und mit KI vorgestellt.


KI macht Schule ist eine Bildungsinitiative, die niedrigschwellige Bildung über Künstliche Intelligenz in den Unterricht bringen möchte. Das Team bietet Workshops mit spielerischen Methoden für Schülerinnen und Schüler und Lehrerkräfte an. Das Projekt trägt sich aus der Arbeit von Ehrenamtlichen und von der Unterstützung durch Stiftungen und Preisgelder. Auch Unternehmen und Einzelpersonen können u.a. einzelne Kurse oder Camps, Lokalgruppen oder die strategische Weiterentwicklung des Gesamtprojektes durch Spenden und Sponsoring unterstützen. Laut Eigenaussage von KI macht Schule bleiben die Inhalte der Kurse sowie die didaktische Ausrichtung davon unberührt.

Fussnoten

Weitere Inhalte

Mia Schepe unterstützt die Werkstatt-Redaktion seit Januar 2022. Sie studiert Politikwissenschaft im Master und ist in der politischen Bildung aktiv. Darüber hinaus interessieren sie die Themen digitale Bildung, Nachhaltigkeit, Klimapolitik und Zeitgeschichte.

Theresa Kühnert ist seit Juli 2019 als Redakteurin für Externer Link: werkstatt.bpb.de tätig. Davor studierte sie Sozial- und Politikwissenschaften in Leipzig sowie Geschichte und Politik des 20. Jahrhunderts an der FSU Jena. Seit 2020 betreut sie außerdem verschiedene Projekte im Bereich der historisch-politischen Bildungsarbeit.