1.
Der Fairness halber: hier noch fünf Beispiele für einen gelungenen Einsatz von künstlicher Intelligenz
Der Hautarzt Roberto Novoa baute kürzlich mit Kollegen an der US-amerikanischen Uni Stanford einen Algorithmus, der mithilfe einer Datenbank aus 129.000 Bildern von Hautveränderungen automatisch erkennen sollte, welche davon gutartig und welche gefährliche Tumore sind. Das Problem dabei: Bei besorgniserregenden Hautveränderungen legen Dermatologen oft ein Lineal mit ins Foto, um deren Größe zu dokumentieren. Das führte dazu, dass der Algorithmus auf Bildern immer dann Tumore erkannte, wenn im Bild ein Lineal zu sehen war – weil dessen Vorhandensein mit einer größeren Wahrscheinlichkeit einherging, dass es sich um krebsartige Veränderungen handelte. Immerhin hatte Novoa also ein Erkennungswerkzeug für Lineale gebaut.
2.
So ein großes Universum und kaum Zeit, es sich genau anzuschauen. Ein NASA-Forscherteam berichtete 2017 von einem Deep-Learning-Programm, das Sonnenstürme auf Bildern erkennen sollte. Das genaueste Programm war letztlich eines, das grundsätzlich anzeigte, dass auf einem Bild kein Sonnensturm zu sehen ist. Starke Sonnenstürme sind nämlich sehr selten.
3.
Innerhalb eines Tages entwickelte sich Microsofts Twitter-Bot in einen rassistischen Troll
Der US-Konzern Microsoft wollte 2016 zeigen, wie clever lernende Systeme sein können – stattdessen bewies er mit seinem Twitter-Bot „Tay“ unfreiwillig das Gegenteil. Die ursprüngliche Idee war, dass der Bot durch Chats mit anderen Usern dazulernt. Je mehr er mit anderen interagiert, desto mehr kann er sich abschauen und desto schlauer wird er. Das war die Theorie. Letztlich dauerte es aber weniger als 24 Stunden, bis „Tay“ zur Rassismusschleuder wurde. „Hitler was right I hate the jews“, twitterte der Bot, leugnete den Holocaust und verbreitete Verschwörungstheorien zu den Terroranschlägen auf das World Trade Center in New York. Microsoft schaltete den Bot schnell wieder ab.
4.
Forscher am MIT Lincoln Lab testeten 2013 ein Computerprogramm, das lernen sollte, eine Liste von Nummern zu sortieren. Es erreichte schließlich tatsächlich einen perfekten Score. Um das zu schaffen, löschte das Programm einfach die Liste. Das entsprach den Anforderungen, wenn auch nicht ganz wie gedacht: Keine Nummern mehr, keine Unordnung.
5.
Via Sprachsteuerung online zu shoppen ist kinderleicht – was Eltern nicht besonders freut
„Alexa, kauf mir ein Puppenhaus!“ Eine Sechsjährige in den USA bestellte im vergangenen Jahr per Sprachsteuerung von Amazon Echo neues Spielzeug. Das ärgerte ihre Eltern, und der örtliche Lokalsender in San Diego berichtete darüber. Blöd nur, dass der Reporter die Worte des Kindes live wiederholte. Das aktivierte nämlich bei zahlreichen Zuschauern die Sprachsteuerung von Amazon Echo und löste ungewöhnlich viele Bestellungen von Puppenhäusern im Raum San Diego aus.
6.
Sicherheit? Kann man auch mit Robotern machen, dachte sich im vergangenen Jahr eine Sicherheitsfirma in Washington, D.C.. Sie ließ einen Sicherheitsroboter durch ein Bürogebäude patrouillieren, angelehnt ans Äußere des „Star Wars“-Droiden R2D2, aber bestückt mit Kamera und Sensoren. Offenbar gefiel dem Roboter sein Dasein jedoch nicht: Er ertränkte sich in dem Brunnen im Foyer. Ein weiteres Modell des Roboters hatte 2016 in einer Einkaufsmall bereits ein 16 Monate altes Kind umgefahren – und hielt danach nicht einmal an.
Illustration: Frank Höhne