Meine Merkliste Geteilte Merkliste

So wird KI in der Hochschulbildung eingesetzt

Lernen mit Algorithmen Editorial: Lernen mit Algorithmen KI in der Medienaufsicht: Was leistet das Tool KIVI? "Technologische Infrastrukturen kreieren Abhängigkeiten" Maschinen mit Moral: Perspektiven für die Schule? Ideen zur Rolle von künstlicher Intelligenz im Klassenzimmer der Zukunft

So wird KI in der Hochschulbildung eingesetzt

Janis Fifka Philine Janus Ricarda Schlimbach Veronika Hackl Eyke Hüllermeier

/ 10 Minuten zu lesen

Mit der Förderinitiative "Künstliche Intelligenz in der Hochschulbildung" unterstützt das Bundesbildungsministerium Projekte in Bildung und Forschung – wir stellen drei von ihnen vor.


Auch in der Hochschulbildung spielt KI zunehmend eine Rolle. (© Marta Siedlecka Externer Link: www.pexels.com)

Über die Förderinitiative Künstliche Intelligenz in der Hochschulbildung

Mit der Förderinitiative Externer Link: Künstliche Intelligenz in der Hochschulbildung wird der Einsatz von Künstlicher Intelligenz in Studium und Lehre unterstützt. Dabei werden seit 2021 sowohl Maßnahmen gefördert, die zur Qualifizierung von zukünftigen akademischen Fachkräften beitragen, als auch Maßnahmen, die den Hochschulen bei der Gestaltung von KI-gestützten Lern- und Prüfungsumgebungen helfen.

Durch die Initiative werden für eine Laufzeit von bis zu vier Jahren deutschlandweit insgesamt 40 Einzel- und 14 Verbundprojekte an 81 Hochschulen gefördert.

StudyBuddy – ein Bot als Lernbegleiter

Was ist der Ansatz des Projektes "StudyBuddy" und welches Ziel soll damit verfolgt werden?

Ricarda Schlimbach: In einer zunehmend digitalisierten Welt wird es wichtiger lebenslang zu lernen und sich kontinuierlich weiterzubilden. Gleichzeitig zeigt sich, dass die Abbruchquoten im Bereich der Aus- und Weiterbildung hoch sind und es schwierig ist, Lernende nachhaltig dafür zu begeistern, am Ball zu bleiben. Hier sehen wir Chancen im Aufbau eines Bots, der auf Künstlicher Intelligenz basiert. Er soll individualisiert auf Lernende eingehen und sie unterstützen. Das geht über einen einfachen Chatbot hinaus, denn er soll eine quasi "freundschaftliche" Beziehung aufbauen und nicht nur eine informationsgebende Tutor-Funktion einnehmen. Deshalb nennen wir ihn auch Learning Companion.

Ricarda Schlimbach von StudyBuddy. (© Ricarda Schlimbach)

Wie und anhand welcher Daten soll der StudyBuddy Ratschläge geben?

Ricarda Schlimbach: Wir haben zunächst quantitativ und qualitativ herausfinden wollen, wo Bedürfnisse und Probleme der Nutzerinnen und Nutzer liegen. Dabei waren wir sehr überrascht, dass es im Kern gar nicht um Lerninhalte geht. Lernende fragen sich: Wie lerne ich? Wie motiviere ich mich? Wie teile ich mir meine Zeit ein? Wie organisiere ich mich? Wir generieren gerade prototypische Trainingsdatensätze, auf deren Basis wir den StudyBuddy anlernen. Das funktioniert am besten, indem Nutzende ihn dann testen und wir das auswerten.

Welches Potenzial sehen Sie im Einsatz eines KI-Chatbots für die Qualität von Bildung?

Ricarda Schlimbach: Wir sehen ein großes Potenzial darin, dass Bots eine hohe Skalierbarkeit und Zugänglichkeit rund um die Uhr haben und damit schwierigen Betreuungsverhältnissen entgegentreten könnten. Sie ermöglichen eine höhere Individualisierung des Lernens – gerade dann, wenn einzelne Lehrende diese nicht mehr leisten können, etwa wenn mehrere hundert Lernende in einer Vorlesung sitzen. Der Bot kann aufgrund von Datenmustern lernen, was die Lernpräferenzen der Zielgruppen sind, wie kognitive Fähigkeiten oder Persönlichkeiten der Nutzenden aussehen, diese auch über einen Zeitverlauf speichern und sich darauf anpassen. Das ist die KI-basierte Adaptivität.

In Bezug auf Lernstile haben wir beispielsweise verschiedene Prototypen erstellt, die eher auf Videos oder eher auf Texten basieren. Daneben werden wir manuelle Personalisierung durch Nutzende zulassen, etwa wie der Avatar gestaltet wird oder was inhaltliche Schwerpunkte sein sollen.

Welche ethischen, sozialen und auch datenrechtlichen Grundprinzipien haben Sie in dem Projekt verankert und wie behandeln Sie Bildungsgerechtigkeit und gesellschaftliche Vielfalt?

Ricarda Schilmbach: Bots, die auf KI basieren, sind immer ein Spiegelbild von uns selbst und dadurch tragen sie diskriminierende Muster oder einen dahinterstehenden Bias weiter. Das heißt, wenn wir den Durchschnitt als Datenbasis nehmen und die KI damit anlernen, dann besteht die Gefahr, dass man die Diskriminierung verschärft, anstatt ihr entgegenzutreten.

Daher binden wir gezielt Minderheiten in die Entwicklung ein und fragen: Welche Probleme hat genau diese Zielgruppe und was für andere Erwartungen an Learning Companions bestehen? Unser Team ist zudem interdisziplinär aus Ingenieuren, Informatikern, Psychologen und Pädagogen gestrickt. Wir haben einen Ethik- und Datenschutz-Arbeitskreis, orientieren uns an bestehenden Richtlinien und diskutieren: etwa wie wir sicherstellen, dass sich die Lernenden in der Nutzung wohlfühlen, wie demokratische Werte und Menschenrechte in die Entwicklung einbezogen werden können, wie wir transparent machen, was mit den Daten passiert und welche gesammelt worden sind. Dabei greifen wir etwa auf Empfehlungen der KI-Enquetekommission des Deutschen Bundestags zurück.

Welche Hürden bestehen, diese Grundprinzipien in der Praxis umzusetzen?

Ricarda Schlimbach: Wir haben recherchiert, welche Formen von Adaptivität, Vielfalt und Individualisierung es bei Chatbots schon gibt – also wo diese von den Nutzenden schon angepasst oder individualisiert werden können. Vom Ergebnis waren wir negativ überrascht: Wir haben wissenschaftliche Datenbanken intensiv durchforstet, und es gibt viele Beiträge, die das Potenzial einer solchen Anpassbarkeit erkennen. Aber nur bei wenigen flossen diese Erkenntnisse in die eigentlichen Chatbots ein. Selbst einfache Ideen, etwa die Berücksichtigung soziokultureller Aspekte wie Sprache, aber auch Merkmale wie die Hautfarbe des Avatar, waren unterrepräsentiert. Hierfür wird nicht zwingend bereits eine KI benötigt.

Bei der KI-Adaptivität beziehen sich die Studien hauptsächlich auf Variablen wie kognitive Fähigkeiten, Lernaktivität, Geschwindigkeit – aus unserer Sicht muss jedoch mehr berücksichtigt werden. Etwa das Wohlbefinden der Lernenden oder ihre Wertvorstellungen. Im ganzen Projekt wollen wir die Synergien zwischen Mensch und Maschine ausnutzen, aber auch die Grenzen des Zusammenspiels erkennen. Es darf weder die Erwartung entstehen, dass die KI Lehrende ersetzen können, noch Ängste, die verhindern, sich von einer KI beraten zu lassen.

Wir glauben nicht, dass jede und jeder fähig sein muss, eine KI zu programmieren und dass das deshalb in jeden Stundenplan gehört. Trotzdem braucht es mehr Feingefühl und eine Grundbildung über die Potenziale und Grenzen künstlicher Intelligenz.

Wie fördert Ihr Projekt auch gesamtgesellschaftliche Kompetenzen?

Ricarda Schlimbach: Es wird immer wichtiger, kompetenzorientiert zu lehren und zu lernen. Es geht nicht mehr so stark um einzelne fachliche Inhalte – Kommunikation, Kreativität oder kritisches Denken stehen im Vordergrund. Deshalb soll der Learning Companion auch diesen Prinzipien folgen. Der StudyBuddy fördert beispielsweise kooperatives Arbeiten – aber nicht nur zwischen dem "Learning Companion" und dem Menschen: er leitet auch aktiv dazu an, dass die Lernenden sich untereinander verknüpfen. Was uns noch aufgefallen ist: In Einzelstudien mit der Zielgruppe wurde oft geäußert, dass sie sich Unterstützung dabei wünschen, effizienter zu werden. Wir sehen eine Warnung darin, dass dies eine allgemeine Tendenz in der Gesellschaft ist. Als müssten wir in unserem Handeln die KI abbilden.

Bei StudyBuddy steht aber der Service-for-good-Gedanke im Zentrum, das heißt, es soll ein Angebot für mehr Wohlbefinden beim Lernen sein. Vielfalt bedeutet, dass nicht alle gleich getrimmt sind. Zudem sehen die Lernenden selbst ein Suchtpotential in Apps und digitalen Medien. Hierin liegt ein ethischer und bildungspolitischer Auftrag: Mit dem technologischen Fortschritt der KI wird es wichtiger, eine Balance und einen verantwortungsvollen Umgang mit digitalen Technologien zu fördern. Wir müssen den Lernenden deshalb auch zeigen, wann sie den Bot abschalten oder alternative Angebote als Ausgleich zum Lernen im physischen Raum nutzen sollten.


DEEP WRITE – Schreibkompetenzvermittlung durch KI

Welchen Zweck verfolgt das Projekt "DEEP WRITE"?

Veronika Hackl: Studierende sollen in ihrer Argumentationskompetenz gefördert werden. DEEP WRITE ist ein vom Bundesbildungsministerium gefördertes Projekt, bei dem es um die KI-gestützte Vermittlung von Schreibkompetenzen in den Hochschulfächern Jura und Wirtschaft geht. Wir stellen dabei nicht das Fachwissen in den Vordergrund, sondern das Argumentieren – also das Wissen um das Verfassen von Texten in einem bestimmten Stil der Fachdisziplin, wie etwa dem juristischen Gutachten.

Veronika Hackl von DEEP WRITE. (© Valentin Brandes)

Wie fördert maschinelles Lernen in Ihrem Projekt die Qualität von Bildung?

Veronika Hackl: Mit DEEP WRITE wollen wir die Lehre verbessern, die Lernwirksamkeit erhöhen und das Betreuungsverhältnis positiv beeinflussen. Studierende profitieren von individuellem Feedback durch die KI. Der Einsatz von KI hat das Potenzial, die Bildungslandschaft zu verändern: Mit unserem Projekt wollen wir einen Beitrag leisten, eine bestimmte Kompetenz wirksamer zu vermitteln.

Sie nennen es als Ziel, den Zugang zu Feedback für einzelne Studierende zu erleichtern. Wie können denn gesellschaftliche Vielfalt, aber auch persönliche Stärken und Schwächen hier berücksichtigt werden? Trägt DEEP WRITE zu mehr Bildungsgerechtigkeit bei?

Veronika Hackl: Lernen ist immer individuell. Darum liegt auch ein Schwerpunkt im Projekt auf individuellem Feedback. Natürlich gibt es auch Unterschiede, beispielsweise kultureller Art, zu berücksichtigen, die sich etwa auf die Gestaltung der User Experience auswirken. Auch die Frage, wie viel Geld Studierende zur Verfügung haben, spielt in unser Projekt hinein.

Ein Beispiel: Gerade in Jura ist die Angst vor dem Durchfallen das Geschäftsmodell von Repetitorien-Anbietern. Studierende wissen nicht, ob das bezahlte Repetitorium wirklich wirksam ist. Aber sie kaufen es trotzdem, um sich abzusichern und um ein besseres Gefühl zu haben. Wir versuchen durch unser Tool Feedback und Lernerfolge für alle Studierenden zu bieten.

Wie genau wird das Schreiben oder auch Argumentieren im Bereich Jura überhaupt bewertet? Auf Basis eines einheitlichen Gutachtenstils?

Veronika Hackl: Der Gutachtenstil strukturiert das Denken und basierend darauf das Schreiben. Argumente müssen gewichtet und in einen Zusammenhang gebracht werden. Die Struktur des Gutachtenstils lässt sich schematisch abbilden. Sowohl die Studierenden können den Stil erlernen als auch die Künstliche Intelligenz, die mit einer großen Masse an Textbeispielen trainiert wird. Die tatsächlichen Inhalte der Argumentation können sich unterscheiden und die Lösung trotzdem richtig sein.

Ist es dann für die KI möglich, trotz der Varianz individuell Feedback zu geben?

Veronika Hackl: Hinsichtlich der Struktur auf jeden Fall. Stilistische Merkmale stehen hierbei aber im Vordergrund.

Welche Herausforderungen bringt die Umsetzung des Projekts mit sich?

Veronika Hackl: Wenn eine KI Bewertungen vornimmt, dann muss transparent sein, was dem zugrunde liegt. Welches Sprachmodell wird eingesetzt? Womit wird die KI trainiert? Wir versuchen nachvollziehbar zu arbeiten, was die Grundlage jedes wissenschaftlichen Handelns sein sollte. Neben der Transparenz sind auch Vorbehalte des Lehrpersonals eine Herausforderung: Wie setze ich die Anwendungen ein? Werden meine Studierenden sie verwenden? Wie moderiere ich das? Solche Fragen und damit verbunden die Weiterbildung des Lehrpersonals und der Wandel der institutionalisierten Bildung – das alles beschäftigt uns.

Was würden Sie denn sagen, welche Kompetenzen gefördert werden müssten, damit KI verantwortungsvoll und gewinnbringend im Bildungsbereich eingesetzt werden kann?

Veronika Hackl: Wenn ich im Freundeskreis erzähle, woran wir arbeiten, sind Vorbehalte spürbar. Aufklärungsarbeit ist sehr wichtig. Wir alle müssen noch besser verstehen, was mit KI möglich und nicht möglich ist und welche Potenziale und Risiken damit einhergehen. "Data Literacy" ist definitiv ein Schlagwort, auch die Stärkung von MINT-Fächern. Gleichzeitig muss aus meiner Sicht der Mensch bei der Entwicklung einer KI konsequent mitgedacht werden. Die technische Entwicklung ist kein Selbstzweck, eine KI sollte nicht um ihrer selbst willen entwickelt werden, sondern immer mit einem konkreten und auch sinnvollen Ziel. Ich freue mich, dass wir im Projekt interdisziplinär aufgestellt sind: Die erziehungswissenschaftliche Seite lernt beispielsweise von der Data-Science-Perspektive – und umgekehrt.


AIM@LMU – Künstliche Intelligenz als Nebenfach

Was ist das "AIM@LMU"-Projekt und was wollen Sie damit erreichen?

Eyke Hüllermeier: Mit "AI as a major Minor" wollen wir ein Nebenfach zu Künstlicher Intelligenz an der Ludwigs-Maximilian-Universität München anbieten. Nach Bedarf für alle Fakultäten und über alle Fachdisziplinen verstreut. Das Ziel soll sein, ein breitgefächertes Ausbildungsangebot für Studierende zu konzipieren. Das heißt, dass allen Studierenden die Möglichkeit eröffnet werden soll, ihr primäres Studienfach mit einer KI-Ausbildung zu ergänzen. Das Vorhaben knüpft an die Forschungsstrategie der LMU an, bei der zuletzt viele neue KI-Professuren für die Forschung besetzt wurden. Und das wollen wir jetzt im Bereich der Lehre ergänzen.

Eyke Huellemeier von AIM@LMU. (© Eyke Huellemeier)

Ihr Projekt setzt also auf die Vermittlung von Wissen und Kompetenzen zu KI. Welche Potenziale sehen Sie darin für die Qualität der Bildung und wie schöpfen sie diese aus?

Eyke Hüllermeier: Grundlegendes Wissen über KI soll in der Breite an Nicht-Informatiker vermittelt werden, um so etwas wie "KI-Mündigkeit" zu erreichen. Die Studierenden sollen grundlegende Prinzipien der KI verstehen, Potenziale der Anwendung, aber auch Grenzen des derzeit Machbaren erkennen. Studierende aus verschiedenen Disziplinen wie Medizin, Psychologie, Politik oder Wirtschaft wollen wir befähigen, KI für ihr Studiengebiet anzuwenden. Hier passiert bereits viel, und KI eröffnet vollkommen neue Möglichkeiten.

Ein Beispiel: In der Bioinformatik hat man mithilfe von maschinellen Lernverfahren enorme Fortschritte gemacht. Ich vergleiche das gerne mit der Erfindung des Mikroskops, einem neuartigen Forschungswerkzeug, das die biologische Forschung revolutionierte. Da KI in der Forschung zukünftig noch wichtiger wird, gilt es jetzt die nächste Generation dafür vorzubereiten.

Wie sind in der KI-Ausbildung ethische, soziale und rechtliche Grundprinzipien verankert?

Eyke Hüllermeier: Darüber tauschen wir uns mit den Kultur- und Geisteswissenschaften aus und haben eine Ringvorlesung geplant, wo auch rechtliche, gesellschaftliche oder soziale Implikationen der KI vorkommen werden. Denn KI kann auf verzerrten Daten basieren, einem "Social Bias". Erklärbarkeit und Fairness sind ebenso wichtige Stichworte. Jedoch haben wir diese Aspekte in der Ausbildung nicht so prominent aufgehängt. Uns stehen als Nebenfach nur begrenzte Semesterwochenstunden zur Verfügung. Daher haben wir uns auf einen Grundlagenteil und einen fachspezifischen Methodenteil fokussiert.

Aspekte wie "Social Bias" gehören demnach nicht zur Methodenvermittlung in der Ausbildung?

Eyke Hüllermeier: Da sind die Übergänge fließend. Wenn eine KI im Alltagskontext eingesetzt wird, dann muss man überlegen: Wie sorge ich dafür, dass es kein Problem mit einem "Social Bias" gibt? Da liegt der Knackpunkt. Wir können verstehen, was unfair ist an einer Entscheidung einer KI, wenn etwa Bevölkerungsgruppen benachteiligt werden. Man versteht aber nicht, warum das zustande gekommen ist: Hat das ein Programmierer ganz bewusst einkalkuliert? Oder dadurch, dass die KI aus Daten gelernt hat, die ein verzerrtes Bild der Welt vermitteln? Mit dem Verständnis, wie wir es vermitteln wollen, werden wir die Studierenden in die Lage versetzen, methodisch eine KI so weit zu durchdringen, dass sie die Entstehung nachvollziehen können.

Gibt es bestimmte Herausforderungen, auf die Sie in Ihrem Projekt gestoßen sind?

Eyke Hüllermeier: Eine große Herausforderung wird sein, dass die Hörerschaft bei diesem in der Breite angelegten Nebenfach einerseits recht groß und vor allem recht heterogen sein wird. Da wird es Studierende geben, die zwar nicht direkt aus der Informatik, aber aus naturwissenschaftlichen Fächern kommen, die etwas näher an der KI-Thematik sind und vermutlich weniger Probleme mit Mathematik haben werden – und KI hat nun einmal viel mit Mathematik zu tun. Bei anderen Fachgebieten kann sich das schwieriger darstellen. Damit stellt sich die Frage, wie wir diesen Anforderungen gerecht werden können, ohne für jeden Studiengang eine einzelne Vorlesung anbieten zu müssen.

Was ist bei der Behandlung von KI-Themen in Zukunft besonders wichtig, und wie kann ein verantwortungsvoller Umgang gesamtgesellschaftlich gefördert werden?

Eyke Hüllermeier: KI war vor einigen Jahren noch im Elfenbeinturm der Hochschulen gefangen, als sehr abstraktes, kleines Thema. Inzwischen ist KI im Alltag angekommen und betrifft die Leute direkt. Deshalb braucht es einen Austausch der Fachdisziplinen, um die ethischen Aspekte zu berücksichtigen und KI wirklich als Zukunftstechnologie bei uns in der Gesellschaft nutzen zu können.

Letztlich ist es da nicht mit den Hochschulen getan. Es muss auch bis in die Schulen gehen. Oder auch in den Ausbildungsbereich. Wenn beispielsweise ein Heizungsinstallateur Kunden berät, die sich ein Smart Home einrichten lassen, wird dazu KI genutzt. Auch hier braucht es ein Grundverständnis, um verantwortungsvolle Entscheidungen zu treffen, ohne vom Fach zu sein.

Die Interviews führten Janis Fifka und Philine Janus.

Weitere Inhalte

Janis Fifka studierte Politikwissenschaft, Geschichte und Publizistik in Münster und Berlin. Seit Oktober 2021 unterstützt er die Werkstatt-Redaktion als Redakteur für Social Media und Community Management. Zuvor war er an verschiedenen Stationen in den Feldern Politik, Kommunikation und Öffentlichkeitsarbeit tätig. Bildung im digitalen Wandel sowie politisch-historische Bildung begleiten ihn seit 2015 in seiner Arbeit als freier Bildner.

Philine Janus ist seit August 2022 Redakteurin für werkstatt.bpb.de. Sie studierte Literaturwissenschaft und Soziokulturelle Studien in Berlin und Frankfurt Oder. Nach 2013 arbeitete sie für verschiedene Bildungsträger an Schulen in ganz Berlin, in der Dramaturgie des Berliner Maxim Gorki Theaters und als freie Redakteurin unter anderem für das Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG).

Ricarda Schlimbach war zehn Jahre in der Automobilindustrie tätig, insbesondere in internationalen IT-Projekten und promovierte im Themenfeld digitaler Geschäftsmodellinnovation, bevor sie 2021 ans Institut für Wirtschaftsinformatik der Technischen Universität Braunschweig wechselte. Dort arbeitet sie derzeit in der Abteilung für Service-Informationssysteme als wissenschaftliche Mitarbeiterin und Verbundkoordinatorin des vom Bundesinstitut für Berufsbildung geförderten Projektes Study Buddy.

Veronika Hackl ist wissenschaftliche Mitarbeiterin an der Universität Passau und Unternehmerin. Ihr aktuelles Schwerpunkt-Thema ist die KI-gestützte Kompetenzvermittlung im BMBF-Projekt DEEP WRITE. In ihrem Promotionsvorhaben untersucht sie die Wirksamkeit von KI-generiertem Feedback. Darüber hinaus berät sie Unternehmen bei der Einführung von Künstlicher Intelligenz im Marketing.

Eyke Hüllermeier ist seit 2021 Professor am Institut für Informatik der LMU München, wo er den Lehrstuhl für Künstliche Intelligenz und Maschinelles Lernen leitet. Zuvor hatte er Professuren an den Universitäten Paderborn, Marburg, Magdeburg und Dortmund inne. In der Forschung widmet er sich vor allem den theoretischen und methodischen Grundlagen der KI und des maschinellen Lernens, interessiert sich aber auch für Anwendungen von KI-Methoden in anderen Wissenschaftsgebieten und engagiert sich in interdisziplinären Projekten und Forschungsverbünden.