Künstliche Intelligenz: zu naiv, um schlau zu sein


Noch nie schien der Traum von der Technik, die dem Menschen im Denken ebenbürtig oder gar überlegen ist, so nahe: Algorithmen erkennen nicht nur Objekte auf Fotos. Sie fungieren auch als persönliche Assistenten, schlagen den Weltmeister in Strategiespielen, die für normal begabte Menschen viel zu komplex sind, und komponieren, malen oder schreiben Geschichten.

Häufig brauchen sie dafür nicht mal mehr menschliche Vorbilder. Die neueste AlphaGo-Version der Google-Tochter DeepMind hat das asiatische Brettspiel Go nicht wie bisher aus der Beobachtung menschlicher Matches gelernt, sondern von Grund auf, indem sie mit einem Klon ihrer selbst trainierte.

Künstliche Naivität

Doch nicht jedes harte Training steigert die Intelligenz. Künstlichen neuronalen Netzen unterlaufen bisweilen ausgesprochen dümmlich wirkende Fehler, die der menschliche Betrachter schlicht nicht nachvollziehen kann. Viele Fehler sind lustig. Sie füllen ganze Blogs, etwa der geniale Kunstgriff einer Face-Swap-KI, die das Gesicht eines Babys mit den Drehgriffen eines Herds vertauschte, anstatt mit dem Kopf des Vaters. Andere haben schwerwiegende Folgen, beispielsweise KI-Systeme im Bewerber-Management oder autonome Fahrzeuge, die eine Verkehrssituation falsch einschätzen.

Denn während Wissenschaftler noch intensiv nach Lösungen suchen, die die Entscheidungen maschinell trainierter Systeme transparenter machen, laufen seit Jahren intensive Feldversuche, wie ein Blick in die USA zeigt. Dort geben Algorithmen Sozialprognosen über Straftäter ab und sortieren Stellenbewerber aus – häufig zum Nachteil sozial schwächerer Gruppen. Kritiker fürchten deshalb, dass hart erkämpfte Errungenschaften wie die Gleichstellung von Menschen unabhängig von Geschlecht und Herkunft durch die vermeintlich neutrale Technik peu à peu wieder aufgeweicht werden.

Dass künstliche neuronale Netze nicht immer die Ergebnisse liefern, die der Mensch erwartet, hat mehrere Gründe. Häufig liegt der Fehler in den Trainingsdaten, die dem Netz nicht helfen, genau die Fähigkeiten auszubilden, die es zum Lösen der gestellten Aufgabe braucht.

Aber es liegt auch an der Architektur selbst, die dem komplexen Zusammenspiel menschlicher Neuronen und Synapsen nicht annähernd ebenbürtig ist. Deshalb lernt der Mensch viel effizienter als die KI, denkt in logischen Zusammenhängen anstatt nur in Mustern und kann Humor und offensichtlichen Nonsens einordnen. Ein maschinell trainiertes Bilderkennungssystem hingegen lässt sich von kuriosen Szenen komplett verwirren: Montiert man etwa eine Giraffe in ein Wohnzimmerfoto, leidet die Genauigkeit der Objekterkennung.

Wie viele kleine und große Schwierigkeiten eine KI in der Praxis fehlerbehaftet oder gar unbrauchbar machen können, beschreibt der Artikel auf Seite 130. Warum sich mit den State-of-the-Art-Verfahren fundamentale Prinzipien menschlichen Denkens nicht simuliert lassen, erfahren Sie ab Seite 134. (atr@ct.de)



Был яңылыҡты беҙгә партнерлыҡ селтәрен алынған. : https://www.heise.de/ct/ausgabe/2018-24-Kuenstliche-Intelligenz-zu-naiv-um-schlau-zu-sein-4211024.html?wt_mc=rss.ct.themen.atom
Бирелгән һүрәт рөхсәт менән яғымлы heise.de