Freizeit: Künstliche Intelligenz
Was heißt hier intelligent?
Computer filtern unsere Wahrnehmung im Netz. Sie hören uns zu und antworten. Sie unterstützen uns im Alltag. Doch wie intelligent sind diese Systeme eigentlich? Und wo geht die Reise hin? Professor Kummert gewährt eine kurzen Einblick in die KI-Forschung.
Beim Stichwort Künstliche Intelligenz (KI) denkt der eine oder andere vielleicht an Roboter mit menschlichem Antlitz, schlaue Supercomputer oder womöglich sogar an Reisen in ferne Galaxien. Dabei reicht es bereits, beim Suchmaschinenriesen Google einen oder mehrere Suchbegriffe einzugeben und auf die kleine Lupe zu klicken. Schon ist man nämlich mittendrin in der Welt der intelligenten Maschinen. Und das sogar in zweierlei Hinsicht: Zum einen, weil die Suchergebnisse unter anderem mithilfe von komplexen und geheimen Algorithmen errechnet werden. Zum anderen, weil man durch seine bei Google angehäuften Daten selbst einen großen Teil dazu beiträgt, welche Ergebnisse als relevant eingeschätzt werden. Aber ist das schon Künstliche Intelligenz? Für Professor Anton Kummert vom Lehrstuhl für Allgemeine Elektrotechnik und Theoretische Nachrichtentechnik an der Bergischen Uni ist diese Frage eher zweitrangig. Er forscht unter anderem für das Unternehmen Delphi, das sich der Entwicklung selbstfahrender Autos verschrieben hat.
„Der Begriff Künstliche Intelligenz schwirrt schon seit den achtziger Jahren umher und wurde dann lange Zeit kaum beachtet. Seit etwa 2012 ist das Thema wieder auf dem Tisch“, erklärt Kummert. Das läge vor allem an dem großen Entwicklungsschub durch leistungsfähigere Rechner. Mit denen lassen sich die extrem aufwendigen Vorgänge des menschlichen Gehirns heute zumindest annähernd nachbilden. Auch wenn man heute immer noch nicht zu hundert Prozent weiß, wie genau unser Denken überhaupt abläuft. Anton Kummert: „Wir sprechen eher von maschinellem Lernen oder Deep Learning.“
Selbstlernende Software
„Wir staunen ja immer dann, wenn ein Computer Aufgaben im Vergleich zum Menschen extrem schnell löst“, sagt Professor Kummert. Auch der erste Taschenrechner hätte schließlich großes Erstaunen ausgelöst. Heute würde allerdings niemand mehr auf die Idee kommen, seinem Taschenrechner eine Art Intelligenz zu unterstellen. Natürlich ist man inzwischen wesentlich weiter. Die Stoßrichtung: Mithilfe selbstlernender Software und einem riesigen Datenpool (Big Data) soll unsere Welt immer weiter optimiert werden. Angeführt von US-amerikanischen Firmen wie Google, Facebook, Tesla, Apple und Co. werden heute unter anderem sogenannte Deep-Learning-Programme entwickelt. Auf Deutsch: maschinelles Lernen auf sehr vielen, hintereinander geschalteten Ebenen. Dabei „lernen“ Programme vor allem durch das wiederholte Lösen von
Beispielaufgaben. Dabei gilt: Je mehr „Input“ zur Verfügung steht, desto besser kann gelernt werden. Die Aufgabe könnte etwa lauten, Gegenstände auf Bildern – oder auch in der Realität – zu erkennen und zu kategorisieren. Die Grundstruktur der Mustererkennung wird dabei vorgegeben, bestimmte Parameter aber werden immer wieder selbstständig vom Programm angepasst, um die Fehlerquote zu minimieren. Am Ende soll die Software dann auch mit Bildern arbeiten können, die es vorher noch nie ausgewertet hat. Professor Kummert: „Das funktioniert so weit schon sehr gut.“ Je niedriger die Anzahl der Fehler, desto intelligenter das Programm. Die Lernprozesse selbst sind bei dieser Methode für die Entwickler letztlich nicht mehr nachvollziehbar. Man kann hinterher nur feststellen, dass sich die Fehlerquote verbessert hat. Allerdings, so gibt Kummert zu bedenken, „diese Leistung des Bildererkennens bekommt auch so ziemlich jeder Grundschüler hin. Da würde man jetzt auch nicht von besonders hoher Intelligenz sprechen.“ Wie wahr.
Dennoch, die intelligenten Systeme begleiten uns schon heute auf Schritt und Tritt. Sei es beim Einparken mit dem Auto, in der Heizungsanlage, im Stromnetz oder bei der automatischen Übersetzung im Internet. Diese Entwicklungen werden weitergehen, weltweit forscht man in viele verschiedene Richtungen. Ob wir es irgendwann einmal wirklich mit einer dem Menschen ebenbürtigen, künstlichen Intelligenz zu tun bekommen, hängt letztlich auch davon ab, wie wir unsere Intelligenz überhaupt definieren.