Google I/O 2018 „künstliche Intelligenz und neuronale Netzwerke“
Dieses Jahr stand die Google I/O völlig im Zeichen der KI – Computer lernen selber und erstellen mehrdimensionale neuronale Verknüpfungen zur Entscheidungsfindung: ist auf diesem Bild ein Auto oder ein Hund zu sehen? Solch eine Frage wurde bislang mit Algorithmen angegangen: Gibt es runde Gegenstände, die als Reifen eingeordnet werden können? Sind Zähne zu erkennen?
Ein gänzlich anderer Ansatz ist es jedoch, den Computer eigene Kategorien zur Entscheidungsfindung generieren zu lassen – vereinfacht gesprochen gibt man mehrere Hunderttausend Bilder von Autos und Hunden vor, bei denen die Entscheidung „Hund oder Auto“ bereits getroffen wurde. Nun baut die KI selber ein Regelwerk und versucht die Entscheidungsfindung dergestalt zu optimieren, dass die eigene Vorhersage „Hund oder Auto“ zu 99,9 % der Vorgaben passt. Anschließend werden iterativ immer wieder neue Bilder ohne Vorgabe ausgewertet und an dem selbst erstellten Regelwerk gefeilt, bis insgesamt eine Trefferquote von mehr als 99% erreicht wird. Als Framework wird Tensorflow verwendet, hierzu werden speziell entwickelte Hardware-Komponenten namens TensorFlow Processing Units (TPUs) eingesetzt.
Ein so mit großem Rechenaufwand erstelltes neuronales Netz (also die vom Computer eigens generierten Regeln) lässt sich dann exportieren und funktioniert zuverlässig auch auf schwächerer Hardware (z.B. einem Smartphone).
Wie immer hier der Link zur Google I/O-Seite: https://events.google.com/io/
Ich empfehle hierzu die Lektüre der letzten CT (Ausgabe 24 vom 10.11.2018).
Hier wird weit weniger gejubelt und ein hohes Hype-Potential unterstellt.
Am schlimmsten bei der Diskussion ist allerdings, dass bereits heute tatsächlich Entscheidungen, die den Lebensbereich von Menschen bestimmen, von MASCHINEN getroffen werden – und wenn man nicht von „neuronalen Netzen“ spricht, sondern das Kind beim Namen nennt, nämlich, dass Computerprogramme neue Programme schreiben, die vom Menschen überhaupt nicht mehr verstanden werden können, dann kann man gut nachvollziehen, warum Menschen wie Stephen Hawking und Elon Musk (denen man ja nicht unbedingt nachsagen kann, sie seien technophob) entschieden vor den Gefahren warnen, die mit dem Einsatz von KI verbunden sind.
Hallo Frank,
ich teile Deine Bedenken absolut und muss wohl erklären, warum mich die Fortschritte im Bereich KI so interessieren. Bei Anwendungen mit augmented reality ist es eine der Hauptaufgaben, Objekte sicher und schnell zu identifizieren. Wir haben an einem Projekt getüftelt, bei dem es darum ging, in 360 Grad Filmen kontextbezogene Hilfetexte/-videos einzublenden. Bei weitem die größte Herausforderung war es dabei, sicher zu bestimmen, wozu der Benutzer grade Hilfe brauchte. Gerade, wenn AR auf mobilen Geräten laufen soll, sind hier „knackige“ Lösungen gefragt, und als Programmierer finde ich den Ansatz von Tensorflow sehr interessant.
Automatisierte Entscheidungen bei der Kreditvergabe und ähnliche datenschutzrelevanten Vorgänge sehe ich ebenfalls sehr kritisch, neulich habe ich gelesen, dass Personalbüros in den USA mit dem Einsatz von computergestützten Bewertungsalgorithmen experimentieren, die vollautomatisch über die Einladung zum persönlichen Bewerbungsgespräch entscheiden – hier kommt einiges auf uns zu und unsere Regierungen sind aufgefordert, hier klare und strenge Grenzen zu definieren. Leider reagiert die Politik wie immer, wenn neue Technologien eingeführt werden, zu träge. In der DSGVO ist zwar geregelt, das besondere Kriterien zu gelten haben bei solchen automatisierten Verarbeitungen personenbezogener Daten, aber als diese Gesetzestexte formuliert wurden, hatte man da „nur“ Scoring im Blickfeld – künstliche Intelligenz in dem Sinne, wie sie heute rasant weiterentwickelt wird, gab es zu dem Zeitpunkt noch nicht.