ai.gif

Automatische Gesichtserkennung (Gif: Anthony Antonellis)
(Gif: Anthony Antonellis)

fluter: Herr Uszkoreit, wir haben dieses Jahr einen Hype der künstlichen Intelligenz (KI) erlebt. Google hat den Go-Weltmeister besiegt, Uber hat die erste kommerzielle Lieferung mit einem selbstfahrenden Lkw durchgeführt, und zu Weihnachten liegt bei einigen schon der Sprachassistent Amazon Echo unterm Baum. Wie haben Sie am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) den großen Hype um die künstliche Intelligenz im Jahr 2016 erlebt?

Hans Uszokeit: Wir freuen uns über den KI-Hype, wundern uns aber nicht wirklich darüber. Keiner von uns konnte genau vorhersagen, wann die Künstliche Intelligenz aus den Labors in die Gesellschaft kommt, aber dass es passiert, war uns schon lange klar. Aber wie es mit Hypes eben ist: Es werden jetzt auch überhöhte Erwartungen geschürt, was KI bald alles kann und wie schnell es jetzt geht. Bei manchen Entwicklungen bin ich gar nicht so traurig darüber, dass sie gar nicht so schnell kommen werden, weil die Gesellschaft und die Arbeitswelt sich zum Teil noch gar nicht richtig darauf eingestellt haben.

Professor Hans Uszkoreit ist wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). An dem Institut, dessen Forschung von Bund, EU, Ländern, und Unternehmen wie SAP, Google und Microsoft gefördert wird, leitet er den Berliner Standort und den Forschungsbereich Sprachtechnologie. Als Honorarprofessor lehrt er daneben an der Technischen Universität Berlin. Außerdem berät er Start-ups rund um die maschinelle Verarbeitung menschlicher Sprache und hat auch selbst mehrere mitgegründet. Uszkoreit ist in Ostberlin aufgewachsen und in den Westen geflohen. Dort startete er zusammen mit einer Gruppe junger Journalisten ein Stadtmagazin, das es auch heute noch gibt: die Berliner „Zitty“.

Können Sie mir erklären, warum Künstliche Intelligenz gerade 2016 ihren Durchbruch feierte? Was ist da passiert?

Das liegt am Machine Learning. Wir haben erst jetzt die großen Datenmengen und die Rechenleistung, so dass maschinelles Lernen wirklich funktioniert. Diese statistischen Systeme wirken zwar superintelligent und können natürlich tolle Sachen machen, also Gesichter erkennen, Sprache übersetzen, autonom fahren, aber eigentlich haben sie das dem Menschen abgeguckt: dem menschlichen Übersetzer, dem menschlichen Fahrer, dem menschlichen Gesichtserkenner. Diese Systeme verstehen gar nichts. Keinen einzigen Satz, den so ein System übersetzt, versteht es. Aber: Dafür können solche Systeme etwas entwickeln, was sonst nur der Mensch hat. Und zwar Intuition.

Intuition, was bedeutet das genau?

Das heißt: Wenn diese Systeme Millionen von erkannten Gesichtern und Objekten gesehen haben, dann können sie, wenn sie neue Bilder sehen, sagen: Hmm, ich weiß jetzt nicht genau, was auf diesem Bild sein kann, aber das könnte auch ein Säugetier sein.

Das klingt wie ein erster Schritt zum eigenständigen Denken.

Ja, aber nur einer. Es ist so: Wenn wir Menschen etwas nicht verstehen, dann müssen wir es intuitiv lösen. Deshalb wirkt diese maschinelle Intuition auf den ersten Blick menschlicher. Vor ein paar Jahren, da hat Google zum Beispiel mal gezeigt, dass sein Bilderkennungsalgorithmus „denkt“, dass auf Bildern von Menschen Katzen zu sehen sind. Das liegt aber nur daran, dass das Internet voll mit Katzenbildern ist. Das System hat so viele Katzenbilder gesehen, dass es denkt, dass alles, was es nicht sofort erkennt, eine Katze sein muss. Diese Intuition kommt uns so bekannt vor, weil wir das auch ständig machen: Wir gucken auf die Wand, sehen ein paar Flecken und glauben, ein Gesicht zu erkennen.

Was fehlt der künstlichen Intelligenz noch zum eigenständigen Denken?

Ganz andere Teile des menschlichen Denkens, nämlich das Verstehen und das Schlussfolgern, die fehlen. Es gibt da wieder andere Systeme, die das können, zum Beispiel zur Erkennung von Kreditkartenbetrug. Das sind wissensbasierte Systeme, bei denen wir versuchen, der Maschine die Welt zu erklären, und ihr unsere Welt in Regeln packen. Regeln wie: Haus = vier Wände + Dach. Die nächste große Revolution wird sein, wenn beides zusammenkommt: also Systeme, die Verständnis haben mit den Systemen, die aus Millionen von Daten lernen, ohne zu verstehen. Dann geht noch mal die Post ab.

Wird daran denn schon gearbeitet?

Ja, da arbeiten wir gerade dran. Ein Beispiel: Früher hatten wir Schach-Programme, die waren regelbasiert. Die Programme kannten die Regeln des Spiels und konnten eine Million Züge in die Zukunft schauen. Und dann haben wir andere Programme, die haben nur aus den Spielzügen der besten Spieler gelernt, kennen aber die Regeln nicht. Wenn diese zwei Sachen zusammenkommen, dann haben wir zwei Stufen.

„Im Moment sind wir so weit, dass die Systeme den Schach- und den Go-Meister schlagen, aber  kein dreijähriges Kind simulieren können.“

Von Stufen wird im Zusammenhang mit KI oft gesprochen. Was ist damit gemeint?

Es gibt drei Stufen in der künstlichen Intelligenz. Die erste Stufe ist, sich so zu verhalten wie die menschliche Intelligenz. Das ist so etwas wie die maschinelle Übersetzung heute, also maschinelles Lernen. Die zweite Stufe ist, das auch zu verstehen. Und die dritte Stufe wäre, eigene Kreativität und Ich-Bewusstsein zu entwickeln. Und das ist diese dritte Stufe, vor der viele warnen und sagen: Ab der dritten Stufe wird Künstliche Intelligenz unkontrollierbar. Aber: Davon sind wir sehr, sehr weit weg, weil wir noch nicht mal die zweite Stufe erreicht haben.

Können Sie trotzdem eine Einschätzung wagen, wann wir die dritte Stufe erreichen? In 50 Jahren? 100 Jahren?

Ich glaube, dass ich die dritte Stufe der Künstlichen Intelligenz nicht mehr erleben werde. Das erleben wahrscheinlich nur diejenigen, die heute sehr jung sind. Im Moment sind wir so weit, dass die Systeme den Schachmeister und den Go-Weltmeister schlagen, aber sie können noch kein dreijähriges Kind simulieren. Weil ein dreijähriges Kind so viele verschiedene Sachen machen kann, von denen ein KI-System noch nicht mal zwei gleichzeitig beherrscht.

Im Moment ist es ja so, dass Google, Facebook, Amazon und Co. die Vorreiter bei KI sind. Der Tesla-Gründer Elon Musk findet, dass das ein Problem ist, und hat deshalb Ende 2015 ein unabhängiges Forschungszentrum gegründet, OpenAI. Er ist der Meinung, KI-Forschung dürfe nicht in der Hand einiger weniger Unternehmen liegen. Hat er recht?

Einerseits mag ich diese großen Firmen und ihre Labors. Wir verstehen uns mit den Forschern dort hervorragend, und ich freue mich für sie, weil sie solche Summen an Forschungsförderung bekommen, die wir gar nicht haben. Trotzdem haben Elon Musk und andere recht. Er meint nämlich, dass irgendwann ein Wissensvorsprung entsteht, der nicht mehr aufzuholen ist. Google hat zum Beispiel den Knowledge Graph. Das sind diese Textboxen, die inzwischen immer erscheinen, wenn man etwas googelt, und die Kurzantwort liefern. Ich find’s nicht gut, dass hier in Europa niemand auf die Idee kommt, das auch zu machen. Zum Beispiel die EU oder ein großes europäisches Unternehmen wie SAP. Es gibt Entwicklungen, die nicht nur in Privathände gehören.

„Wir müssen uns darauf vorbereiten, dass es später auch Arbeitsplätze trifft, die heute bequem mit Büropflanze und Polsterstuhl ausgestattet sind.“

Nicht nur der Technologievorsprung bereitet einigen Sorgen. Vor kurzem hat Amazon die Vision eines Supermarkts ohne Kassen vorgestellt, in dem keine Menschen mehr arbeiten und alle Vorgänge über Sensoren und Kameras erfasst werden. Und den Beruf des Lkw-Fahrers wird es wahrscheinlich auch nicht mehr lange geben. Welche Antworten müssen wir darauf als Gesellschaft entwickeln?

Wenn ich einen Autofahrer simulieren kann und einen Schachspieler simulieren kann, dann kann ich irgendwann jeden Sachbearbeiter ersetzen. Ist doch nur eine Frage der Zeit, bis das gelernt wird. Wir müssen uns darauf vorbereiten, dass es später auch Arbeitsplätze trifft, die heute bequem mit Büropflanze und Polsterstuhl ausgestattet sind. Darauf müssen wir uns als Gesellschaft vorbereiten und schauen, dass wir den erarbeiteten gesellschaftlichen Reichtum nach anderen Prinzipien verteilen.

Wie könnte so etwas denn aussehen?

Vielleicht ist der richtige Weg ein bedingungsloses Grundeinkommen. Oder vielleicht eine Mischfinanzierung von neuen Arbeitsplätzen in den Bereichen Pflege, soziale Arbeit, Bildung etc. Ich weiß auch nicht, was die beste Lösung ist, aber ich weiß, dass die Gesellschaft sich sehr schnell etwas einfallen lassen muss. Solche gesellschaftlichen Änderungen durchzuführen, das dauert Jahrzehnte. Und Jahrzehnte, das ist die Zeitspanne, die wir noch haben. Wir müssen jetzt eigentlich anfangen.

Was erhoffen Sie sich von der Künstlichen Intelligenz?

Mein Traum ist, dass alles Wissen verfügbar wird. Und das alles in meiner eigenen Sprache, so dass ich fragen kann: Was wird denn in Peru heute über Donald Trump gesagt? Also dass ich sämtliches Wissen sofort zur Verfügung habe. Und dann fände ich es toll, wenn die Technologie uns dazu zwingt, etwas zu tun, was seit Tausenden von Jahren überfällig ist. Nämlich den Menschen zu befreien von stupider Arbeit, die krank macht, und zu Aufgaben zu bringen, die ihm Spaß machen und seinem Menschsein angemessen sind.

Titelbild: Anthony Antonellis