30 Jahre Mauerfall Mehr erfahren
Header Big Data

23.1.2017 | Von:
Karl-Heinz Himmelmann

Let´s command Software – Forschungswerkstatt

Für die medienpädagogische Praxis wird das Verständnis für technische Systeme von immer entscheidender Bedeutung. In ihrem Workshop gaben Christian Hentschel und Matthias Wolff von der Brandenburgischen Technischen Universität Cottbus-Senftenberg (BTU) einen Einblick in Forschungsthemen der Fachgebiete Medientechnik und Medienkommunikation und warben für die Zusammenarbeit mit anderen Fachdisziplinen.

Der Workshop mit Prof. Dr.-Ing. habil. Christian Hentschel und Prof. Dr.-Ing. habil. Matthias Wolff von der Brandenburgischen Technischen Universität Cottbus-Senftenberg (BTU) gab einen Einblick in Forschungsthemen der Fachgebiete Medientechnik und Medienkommunikation an der BTU. Ergänzend konnten auch zwei Forschungslabore besichtigt werden. Die Veranstaltung erfolgte in Kooperation mit dem Brandenburgischen Zentrum für Medienwissenschaften ZeM.

Damit wurde bereits mit einem Konzept gearbeitet, das während der Tagung in Impulsvorträgen und Paneldiskussionen mehrfach als zukünftige Aufgabe benannt wurde: MedienpädagogInnen sollten mehr Wissen über technische Systeme erlangen und mit anderen Disziplinen zusammenarbeiten

Prof. Henschel betonte, dass bei der Forschung zu technischen Mediensystemen Kenntnisse über die Nutzer und insbesondere ihre Wahrnehmung und ihr Verhalten von entscheidender Bedeutung sind und daher die Forschung grundsätzlich interdisziplinär angelegt werde. Er erläuterte das künstliche 3-D-Sehen und die Anforderungen an Schnittstellen im Virtual Reality Labor. Ziel der Weiterentwicklung ist die Intuitive Virtuelle Interaktion. Ein Eingabegerät soll überflüssig werden. Gestensteuerung, Nutzererkennung und Spracherkennung sind Elemente eines Kognitiven Systems zur Mensch-Maschine-Kommunikation, Avatare sollen dies unterstützen. Gegenwärtig ist die detailgenaue 3-D-Abbildung der Turbine eines Rolls-Royce-Triebwerkes installiert, das aus mehreren tausend Einzelteilen besteht und sogar von innen betrachtet werden kann. Es wird für Versuchsreihen im Maschinenbau eingesetzt. Weltweit sollen solche Labore zusammenarbeiten.

Prof. Wolff hatte seinen Vortrag umbenannt in: "Einige Anmerkungen zu intelligenten Maschinen". Er stellt sein engeres Thema, die Sprachmaschinen, in einen breiteren Kontext und behauptet rhetorisch provokativ: "ES GIBT KEINE KÜNSTLICHE INTELLIGENZ." – Jedenfalls nicht, wenn man menschliche kognitive Fähigkeiten als Maßstab für Intelligenz nimmt. Zwar können Maschinen inzwischen viel besser als Menschen mit großen Informationsmengen umgehen, doch fehlen ihnen die Fähigkeiten der höheren Organismen: Bewusstsein und Reflexion. Zu normativen Setzungen sind Maschinen (auch in absehbarer Zeit) nicht in der Lage. Der Begriff Kognition sollte dem der Intelligenz vorgezogen werden, weil er eindeutig definiert ist. "Kognition ist die von einem verhaltenssteuernden System ausgeführte Informationsumgestaltung" (Wikipedia) Verhaltensregeln sind semantisierbar, können Bedeutungen abbilden, aber scheinbar intelligentes Verhalten kann auf wenigen, schlichten Regeln basieren und erfordert kein Bewusstsein.

Dies wurde an drei Beispielen erläutert. Die Schwarmintelligenz beim Bau eines komplexen Ameisennests erfordert lediglich das Befolgen von drei simplen Regeln der einzelnen Ameise (Khuong et al. 2015), auch der simulierte Psychotherapeut ELIZA (Weizenbaum 1966) kommt mit wenigen Regeln aus. Eine kürzlich entwickelte Antwortmaschine – Interactive Spoken Content Retrieval System (Wu et al. 2016) sucht lediglich Lautähnlichkeiten von Audiodaten im Internet und kommt mit einer automatischen Zusammenfassung zu sehr guten Trefferquoten. Obwohl das System (das noch nicht fertig entwickelt ist) keine Sprache versteht, kann es in jeder beliebigen Sprache jede beliebige Antwort geben.

SPRACHGEDANKENMASCHINEN, gibt es Gedanken in Maschinen? Können Maschinen denken – JA, aber nicht wie wir Menschen. Fahrerassistenzsteme können zwar autonom fahren, also selbstständig handeln, aber man kann es nicht Denken nennen.

Personal Digital Assistants, wie Cortana (Microsoft), Echo/Alexa (Amazon), Google Now (Google) oder Siri (Apple) können die programmierten Anwendungen abarbeiten, aber bei unerwarteten Fragen wird der Browser aufgemacht. Hierbei hat der Nutzer zugestimmt, dass seine Äußerungen auf Dauer gespeichert und beliebig weiterverwendet werden dürfen. Prof. Wolff entwickelt an seinem Lehrstuhl, zusammen mit dem Frauenhofer Institut, ein System, das ohne diese Datenweitergabe auskommt und auf eine Leiterplatte gepackt wird. Dies sei technisch sehr anspruchsvoll, so Wolff. Der Bauplan von Kognitiven Maschinen mit ihrem Perzeptions-Aktionszyklus wurde schematisch an einem Blockschaltbild erläutert. Dies basiert auf formalen Logikkalkülen. Maschinen können demnach Aussagen auf (formale) Wahrheit überprüfen, Schlussfolgerungen ziehen und auch handeln. Aber: (Verhaltens-) Normen kommen von außen. Vereinfacht gesagt füllen die gegenwärtigen Sprachassistenten mit dem Nutzer einen Fragebogen aus, darin sind sie gut. Zukünftige Systeme sollen laut Prof. Wolff so arbeiten, wie ein guter Butler, dem nicht alles befohlen werden muss, der mich gut kennt und schlussfolgernd handelt. Er arbeitet an einem zielgerichteten Denken, das zu Bewältigungsverhalten führt, selbst wenn keine (bekannte) Lösung existiert.

Das Fazit von Prof. Wolff: KI-Systeme können erstaunliche Leistungen vollbringen. Logische Schlüsse ziehen, auch „zwischen den Zeilen“, menschliche Sprache verstehen und sprechen, lernen und sich anpassen, planen, handeln, unbekannte Probleme lösen und sogar eine gewisse Phantasie haben. Trotzdem sind sie lediglich Werkzeuge. Sie haben kein Bewusstsein, keine Einsicht und keine Intuition (auch nicht in absehbarer Zukunft). Letztlich folgen sie voreingestellten Annahmen, Regeln und Algorithmen.

Prof. Wolff beantwortete das Tagungsthema des Forums negativ: "SOFTWARE CANNOT TAKE COMMAND." Sie bräuchte dazu eine Art Bewusstsein, müsste dies wollen, das kann sie aber nicht. Was aber passieren kann ist, dass wir Menschen der Software das Kommando überlassen. Beim automatischen Bremsassistenten kann dies sinnvoll sein, bei anderen Entscheidungen sollten wir uns dies aber gut überlegen. In der Diskussion wurde die Seite der Nutzer weiter betont. Auch die Ingenieure wollen Technik für die Nutzer entwickeln, die sie auch gebrauchen können. Wirtschaftliche Interessen, z.B. der Datensammler, können dagegen stehen. Hier setzt das genannte Entwicklungsprojekt an, bei dem überprüft wird, ob der digitale Sprachassistent auf einer Leiterplatte Platz finden kann und somit die Daten bei den Nutzern bleiben. Dabei muss in Kauf genommen werden, dass dies nicht so leistungsfähig ist wie ein System, das sich permanent mit allen Drittanbietern austauscht. Es ist eine gesellschaftliche Frage, wie wir uns entscheiden, was aus unseren Daten wird. Prof. Wolff betonte selbstbewusst: "Wir bauen schon einmal die Technik, falls wir uns dazu entscheiden, dass uns unsere Daten wichtig sind."

Haben die Menschen Recht, wenn sie Angst gegenüber selbstständig agierenden Maschinen entwickeln? Das Problem ist einerseits eines der Informiertheit, dass Falschinformationen verbreitet werden und Ängste geschürt werden. Das Problem der Suchblasen sei selbst für die Industrie ein unerwünschter Nebeneffekt, weil die Suchergebnisse für die Benutzer nutzlos werden. Dies kann durch einen anonymisierenden Browser umgangen werden. Andererseits ist es ein Problem des bewussten Umgangs mit der Technik. Letztlich müssten die Regeln noch von der Gesellschaft aufgestellt werden. Es gebe keinen Grund, Angst vor Maschinen zu haben, sie sind nach wie vor Werkzeuge, wohl aber vor den Menschen, die sie einsetzen. So müssten die sogenannten "Datenkraken" dazu verpflichtet werden, auf einer Din A4-Seite in verständlicher Sprache darzulegen, was sie mit den Daten machen wollen und wozu man sein Einverständnis geben soll. Wenn dann jemand mit seinen eigenen Daten für den Dienst bezahlt, ist dies zu akzeptieren. Es muss aber auch klar sein, dass eine andere Organisation eine andere Finanzierung erforderlich macht und von einem Konsens der Gesellschaft getragen werden müsse. Als Voraussetzung wird die Mündigkeit der Bürger gesehen und die Forderung nach mehr Bildung für alle wird erhoben.

Prof. Hentschel beantwortete die Frage nach einer Abschätzung der zukünftigen Entwicklung der Technik zurückhaltend. Bestenfalls könne man die Entwicklung über die nächsten drei Jahre abschätzen. Andere Versuche, die er in seiner langjährigen Praxis in der Industrie erlebt habe, seien gescheitert. Prof. Wolf ergänzte, dass die digitalen Sprachassistenten absehbar besser würden und komplexere Fragen beantworten können. Er wünscht sich darüber hinaus eine Art "Wahrheitsmaschine", die die widersprüchlichen Informationen im Internet mit Wahrscheinlichkeiten über den Wahrheitsgehalt differenziert. Er hält dies für technisch machbar.

Insgesamt hat die Veranstaltung dazu beigetragen, durch Aufklärung über die Arbeitsweise der behandelten Techniken und die Einschätzung ihrer Leistungsfähigkeit deren scheinbare Allmacht zu entmystifizieren. Dazu hat auch die anschließende Besichtigung der Forschungslabore beigesteuert. Es war offenbar durchaus richtig, das Tagungsmotto mit dem Workshopmotto in eine Aufforderung zum Handeln mit und gegenüber Software umzuwandeln. Die Diskussion ist vom Moderator mit dem Hinweis geschlossen worden, dass offenbar eine starke Übereinstimmung zwischen den Ingenieuren und den Medienpädagogen darin besteht, dass die Kompetenz der Medienkritik aufseiten der Nutzer gestärkt werden müsse.