Neben seiner Tätigkeit als Landesvorsitzender ist Valentin in der Halbleiterbranche tätig. An der Schnittstelle von analoger und digitaler Welt wagt er für uns einen Blick auf Wachstumsgebiete künstlicher Intelligenz.
Wann immer ein Ereignis zitiert wird, das eine ganze Epoche geprägt hat, so wird regelmäßig die erste Mondlandung 1969 genannt. Oder der Fall der Berliner Mauer. Nun würde es eines Fehlers in unserer Datenbank bedürfen, wenn ihr bereits Neil Armstrongs erste Schritte auf dem Mond live am Schwarzweißfernseher verfolgt hättet. Und auch die ältesten JuLis werden sich 2018 nur noch vage an den 9. November 1989 erinnern.
Auch ich, Jahrgang 1991, habe all das verpasst. Wenn es aber dennoch ein vergleichbares Ereignis in meiner Kindheit gab, das mich annähernd so staunend zurückgelassen hat, so war es der 11. Mai 1997. An diesem Tag trat Garri Kasparow, Schachgroßmeister und heute aktiver Oppositionspolitiker in Russland, gegen IBMs damals leistungsfähigsten Supercomputer Deep Blue an. Die „Bestie von Baku“, wie der amtierende Schachweltmeister ehrfurchtsvoll genannt wurde, hatte das Nachsehen. Zum ersten Mal setzte sich die Maschine gegen den Menschen durch.
Trotz der damals vorherrschenden Meinung haben Computer uns seitdem weder gänzlich von Arbeit befreit, noch ist es zur Unterjochung unserer Spezies durch künstliche Intelligenz (KI) gekommen. Was ist also die letzten 20 Jahre über passiert? Und was werden die Herausforderungen für die kommenden 20 Jahre sein?
Um zumindest halbwegs seriöse Antworten auf diese Fragen geben zu können, muss man zuallererst die zugrundeliegenden Logiken künstlicher Intelligenz ergründen. Und ein Blick auf selbige macht recht schnell deutlich, dass sich in den Jahrzehnten seit Deep Blue einiges getan hat. Denn wo man früheren Generationen von Supercomputern noch Lösungswege antrainieren musste, finden die fortschrittlichsten Anwendungen heutzutage meist selbst den Weg zum Ziel.
Beispiel gefällig? Deep Blues Algorithmus basierte letzten Endes darauf, dass seine Entwickler ihn mit den Daten von Millionen Schachpartien fütterten, auf deren Basis die KI Strategien entwickelt hat. Nachfolger wie AlphaGo nutzten ebenfalls historische Daten, lernten aber von ihrem menschlichen Gegenüber und optimierten ihre Handlungen entsprechend. Mittlerweile sind Softwares wie Libratus oder DeepStack zu deutlich mehr in der Lage. Basierend auf den Spielregeln – im Falle letzterer Poker – entwickeln sie selbstständig einen Plan, ganz ohne historische Daten. Für die KI ist dies eine größere Herausforderung, als es zunächst den Anschein hat. Denn Rechenleistung ist prinzipiell unendlich steigerbar – es bedarf einfach eines größeren Computers. Schwierig für KI sind Abstrahierung und Intuition; eben Dinge, die sich nicht einfach in mathematische Formeln pressen lassen.
Genau dieses Denken outside-of-the-box eröffnet aber überhaupt erst die Möglichkeit, KI nicht nur in sterilen Versuchssettings, sondern auch im wahren Leben einzusetzen. Das Hauptaugenmerk der Öffentlichkeit liegt dabei auf dem Mobilitätssektor und dem autonomen Fahren, vielleicht auch der Liebe der Deutschen zum Automobil geschuldet. Bedenkt man jedoch die Herausforderungen in diesem Bereich, kommt man schnell zur Erkenntnis, dass ausgerechnet der Straßenverkehr vielleicht die unwahrscheinlichste weil komplexeste Anwendung von KI im Alltag ist. Binnen Sekunden strömen auf einen menschlichen Fahrer dutzende Eindrücke ein – Vibrationen, Geräusche, Lichteffekte, unerwartetes Verhalten anderer Verkehrsteilnehmer. Die schiere Anzahl der zu verarbeitenden Parameter, unterschiedliche Verkehrsregeln und die Ambiguität vieler Situationen bringen aktuelle KI-Software schnell an ihre Grenzen und darüber hinaus. Und dennoch werden wir, vielleicht auch durch den großen Erwartungsdruck, in den kommenden Jahren erste wirklich vollautonome Systeme sehen.
In anderen Bereichen sind wir Menschen deutlich zögerlicher, KI zu akzeptieren. Ein solcher Sektor ist zum Beispiel die Rechtsprechung. Denn wer will schon von einer Maschine verurteilt werden? Nun ja, das ist auch nicht der Sinn von Legal Tech. Dafür ist es aber durchaus realistisch, dass KI künftig unterstützend in der Aktenanalyse eingesetzt wird, um Juristen Anhaltspunkte für ihre Argumentation zu geben. Noch kritischer wird der Einsatz der Technik häufig in der Medizin gesehen – wobei KI zum Beispiel in der optischen Erkennung von Hautkrebs oder der Früherkennung von Depressionen und Alzheimer anhand von Mimik und Sprache mittlerweile Trefferquoten auf dem Niveau erfahrener Ärzte aufweisen kann. Was beide Anwendungen gemein haben: das statische Umfeld und die Prämisse, den Menschen zu unterstützen anstatt ihn zu ersetzen.
Ich werde nicht den Fehler machen, die Zukunft vorhersehen zu wollen – das wurde bereits oft genug gemacht und endete meist ungewollt lächerlich. Weder haben die Hoverboards aus Zurück in die Zukunft Einzug in unser Leben gehalten (und bitte verschont mich mit den gleichnamigen Wackelbrettern made in China), noch tanken wir heute Uran wie die Studie des Ford Nucleon in den 1950ern prophezeite.
Was ich jedoch wage, ist die Hypothese, dass wir neben den analytischen Anwendungen verstärkt auch KI in kreativen Settings finden werden, sei es in der Werbebranche oder auch in der Musik- und Filmindustrie. Mit dieser Verlagerung vom Optimieren menschlicher Ideen zum Erarbeiten eigener Konzepte werden wir den nächsten großen Sprung in der KI beobachten können.
Nichtsdestotrotz hat KI auch dann noch Hindernisse zu überwinden – zum Beispiel müssen Wege gefunden werden, maschinelles Lernen zu automatisieren und zu autonomisieren. Genau diese Zeit muss aber von der Politik genutzt werden, sich mit den neuen technischen Möglichkeiten auseinanderzusetzen. Es müssen Wege gefunden werden, Rechtsprechung, Arbeitsmarkt und Datenschutz derart auszugestalten, dass der Mensch das Heft des Handelns stets in der Hand hält. Damit uns die Maschine nicht irgendwann Schachmatt setzt.
Valentin Christian Abel ist Landesvorsitzender der JuLis Baden-Württemberg