Alle, die sich in den 80er bereits in der Hochzeit mit künstlicher Intelligenz (KI), maschinellem Lernen oder Mustererkennung beschäftigen durften, reiben sich die Augen. Kognitive Systeme feiern erstaunliche Erfolge, über die selbst in den normalen Tagesnachrichten einer breiten Öffentlichkeit staunend berichtet wird.
Der neue Boom von intelligenten Algorithmen bringt neue Chancen, erzeugt aber auch neue Risiken und Ängste. Wie kommt es dazu und welche Faktoren begünstigen diesen neuen Trend? Dass Computer-Programme eine große Menge von Texten und Bilder schneller und effizienter als Menschen analysieren können, haben wir uns inzwischen gewöhnt. Die jüngsten Erfolge von Computern gegen GO- oder Poker-Profilspieler ließen eine breite Öffentlichkeit aufhorchen. Sie lassen erahnen, dass künstliche Intelligenz inzwischen eine Leistungsfähigkeit erreicht hat, die ein normal Sterblicher nur in Ausnahmefällen erreichen kann.
Wie kommt es, dass Maschinen Menschen in speziellen Aufgaben und Disziplinen sogar überflügeln, womöglich sogar ersetzen? Hinter den Erfolgen der künstlichen Intelligenz stecken als Technik vor allem neuronale Netzwerke. Diese berechnen aus Trainingsdaten Vektor-Matrizen, die wiederum als Eingabe für eine weitere spezialisierte Neuronen-Schicht dienen. Hier ist es natürlich von Vorteil, dass im und durch das Internet eine riesige Datenmenge zur Verfügung steht, die ein ausgiebiges Training ermöglichen.
Es sind vor allem folgende Faktoren, die den Trend zu mehr kognitiven Systemen begünstigen: große Rechenkraft zu erschwinglichen Preisen verfügbar, eine große Menge von verarbeitbaren Trainingsdaten sowie stetig verbesserte Algorithmen.
Die sind besonders bei den Internet-Firmen vorhanden und werden dort schon länger für interne Zwecke genutzt und weiterentwickelt. Bei der Berechnung spielt vor allem die Verwendung von günstigen Spiele-Grafikkarten für die parallele Berechnung statt teurer Spezialrechner eine große Rolle. Selbst Smartphone-CPUs können vorberechnete neuronale Netze offline performant ausführen. Maschinen mit diesen Grafikkarten (GPUs) können inzwischen als Hardware-Cloud genutzt werden, um ohne ausbremsende Virtualisierung die volle Rechnerkraft in der Cloud dynamisch und kostengünstig nutzen zu können. Deswegen spricht man auch von Machine Learning as a Service Angeboten (MLaaS).
Außerdem hat auch die Forschung inzwischen entscheidende Fortschritte gemacht. Alle drei Elemente Daten, Rechenkraft und Algorithmen stehen inzwischen über Bibliotheken oder APIs in der Cloud zu freien Verfügung. Nachdem es im akademischen Bereich der künstlichen Intelligenz nach ersten Achtungserfolgen sehr ruhig geworden war, war die KI-Renaissance vor allem eine Veröffentlichung von Geoffrey Hinton im Jahre 2013 mit dem Titel „Learning multiple layers of representation“ verbunden.
Hinton war über einige Jahrzehnte hinweg auf dem Gebiet kognitiver Systeme durch viele Beiträge bekannt geworden und hatte zahlreiche Auszeichnungen erhalten. Schließlich hat er 1986 einen wegweisenden Nature-Aufsatz zum Backpropagation-Algorithmus in Zusammenarbeit mit dem anderen KI-Pionier David Rumelhart veröffentlicht.
Bisher hatte man neuronale Netze nur mit einer Ein- und Ausgabeschicht aufgebaut, was nur ein begrenztes Niveau von Abstraktion und Analysefähigkeit erzeugte. Damit konnte z. B. das sogenannte XOR-Problem nicht gelöst werden. Durch den Mehrschichten-Ansatz von Hinton war endlich eine Qualitätssteigerung der Analyseergebnisse und die Lösung des XOR-Problems möglich, was die Voraussetzung für den breiten Einsatz von Bild- oder Spracherkennung schaffte. Seitdem über diese versteckten Zwischenschichten eine bessere Abstraktion und damit Analyse möglich ist, spricht man auch von Deep Learning als Weiterentwicklung des maschinellen Lernens (ML) da damit ein tiefergehendes Lernen und Verstehen möglich ist.
Diese Forschungsergebnisse brachten Hinton neben seiner Professur in Toronto eine zweite Stelle bei Google in Mountain View ein. Die Fortschritte der Umsetzung seiner Forschung kann man inzwischen in vielen Google-Produkten bewundern oder sogar für eigene Produkte über APIs nutzen.
Ein vielversprechendes Produkt von Google ist dabei das Tensorflow-Framework, zu dem es auch spezialisierte Hardware als Tensor Processing Units (TPUs) von Google gibt.
Die Funktionsweise dieses neuronalen Netzwerkes kann man einfach im Browser ausprobieren, um unter http://playground.tensorflow.org die Neuronen und den Einfluss von neuen Schichten auf das Bilderkennungsergebnis zu beobachten. Damit wird eine komplexe Technik visuell verständlich dargestellt. Diese visuelle Darstellung eines neuronalen Tensorflow-Netzwerkes ist über das Produkt Tensorboard auch in eignen Projekten nutzbar.
Wer tiefer in die Materie einsteigen möchte, kann bei Google Cloud-Kapazitäten für maschinelles Lernen (Sprach-/Bilderkennung, Übersetzung) kostenlos nutzen oder mieten. Ähnliche Angebote gibt es bei IBM Watson und mit Abstrichen auch bei Microsoft, Amazon oder Facebook.
Vorbei sind die Zeiten, in denen man ein Team von Doktoren in Statistik oder Data Science neben einem eigenen Super-Computer benötigte. MLaaS hat die Einstiegshürden in dieses faszinierende Gebiet erheblich gesenkt. Die Kapazitäten in der Cloud stehen allen für kleines Geld zur Verfügung, um eigene Anwendung zu entwickeln.
Ein Technologiesprung allein ist noch keine Innovation. Andererseits lässt sich die Reife von kognitiven System eher mit dem Zustand des World Wide Web in den späten 1990er Jahren vergleichen. Erst dadurch, dass eine neue Art von Anwendungen und Diensten darum herum entstehen und von den Nutzern angenommen werden, bewirkt, dass kognitive Systeme Alltagsdinge wie persönliche Assistenten oder Spezialaufgaben übernehmen.
Selbst wenn Maschinen über neuronale Netze jetzt mit Training und menschlicher Betreuung erstaunliche Algorithmen erstellen, brauchen sich Programmierer keine Sorgen um ihre Zukunft zu machen. Denn es bleiben genügend Herausforderungen für die Integration der Dienste und Bereitstellung von qualitativen Daten. Wurden bisher viele Programme im Bereich maschinelles Lernen mit Java geschrieben, setzen sich dort immer mehr die Programmiersprachen Python und R durch. Ein alter Traum der Menschheit, den Computer als Erweiterung des menschlichen Gehirns zu nutzen, wird in Teilen bereits Wirklichkeit. Welche Folgen diese neuen Anwendungen für unser Selbstbild, Arbeit, Recht oder die Gesellschaft haben, ist dabei noch gar nicht abzusehen. Es bleibt spannend!