KI – künftig Entscheider und Polizist oder nur Werkzeug?

veröffentlicht am 10.01.2023

Das Word Economic Forum (WEF) ist ein wesentliches Machtzentrum der globalen wirtschaftlichen und politischen Ordnung. Sein Gründer, der Vordenker und Organisator Klaus Schwab, glaubt, dass Künstliche Intelligenz (KI) die Wirtschaft revolutionieren und durch Automatisierung menschlicher Arbeit einen hohen Anteil der heutigen Arbeitsplätze überflüssig machen wird.

Von Jobst Landgrebe

Viele prominente Meinungsbildner wie Ray Kurzweil von Google, Elon Musk oder der bekannte verstorbene Physiker Stephen Hawking befürchten, dass KI bald klüger werden könnte als der Mensch und sich zu AI-Overlords (KI-Herrschern) entwickeln würden, die die Menschheit unterjochen könnten.

Die Öffentlichkeit schwankt zwischen Hoffnung auf KI im Einsatz in der Medizin oder zur Erledigung mühsamer Arbeiten durch Roboter einerseits und Angst vor KI-Polizisten oder KI-Soldaten, Terminatoren, die dem Vernehmen nach als Ordnungskräfte eingesetzt werden sollen, andererseits. Noch mehr Angst erzeugt die Vorstellung von KI-Herrschern.

Wie sieht es das WEF? Es betreibt zahlreiche Abteilungen, eine davon auch zum Thema Künstliche Intelligenz. Diese Abteilung versichert uns, die Mission des WEF beim Thema KI umfasse die Sicherstellung von Privatsphäre, Verantwortlichkeit und fördere Gleichheit und Inklusion, wobei der private und öffentliche Sektor zusammengebracht würden, um Richtlinien zu implementieren, die den Nutzen der KI optimieren. Das klingt deutlich realistischer als die Prophezeiungen des WEF-Vorsitzenden.

Noch pragmatischer sehen es KI-Theoretiker und Praktiker wie Yann LeCun, Yoshua Bengio, Brian Cantwell Smith oder François Chollet, die KI ganz nüchtern als Teil der angewandten Mathematik ansehen. Die Vorstellung, KI könnte menschliche Intelligenz erreichen oder sogar übersteigen, halten sie für unsinnig.

Wem soll man nun glauben?

Doch wem sollen wir glauben – den düsteren Prophezeiungen Stephen Hawkings oder Elon Musks? Oder nüchternen Praktikern wie François Chollet, der KI für unmöglich hält? Oder liegt die Wahrheit in der Mitte?

Schauen wir uns einmal an, wann man von KI spricht und was KI-Algorithmen eigentlich machen sollen. KI entstand als Feld der angewandten Mathematik in den 1940er-Jahren, zum ersten Mal wurde der Begriff vom genialen Mathematiker Alan Turing verwendet. Das Ziel dieser Disziplin ist es, mithilfe mathematischer Modelle, die in einem Computer berechenbar sind, die menschliche Intelligenz zu emulieren.

Bis heute hat sich daran im Grunde nichts geändert. Und genau hier liegt der Schlüssel zu den Grenzen von KI-Systemen. Wir wissen zwar nicht, wie das Gehirn intelligentes Verhalten hervorbringt, doch wissen wir, dass Tiere und Menschen komplexe Systeme sind, die sich von einfachen Systemen deutlich unterscheiden. Solche Systeme verändern sich ständig und bringen Vorgänge oder Verhaltensmuster hervor, die stets einmalig sind. Sie lassen sich mathematisch nicht modellieren. Sie sind vergleichbar mit einer Welle, die an einer Küste brandet. Auf der Feinebene ist keine Welle jemals mit einer anderen Welle identisch. Man kann die Feinstruktur einer Welle also nicht vorhersagen, indem man andere Wellen beobachtet, egal wie viele. So ist es auch mit der Intelligenz. Sie ist die Eigenschaft eines komplexen Systems. Wir haben dafür weder beschreibende noch kausal erklärende noch vorhersagefähige Modelle. Wir verstehen nicht, wie intelligentes Verhalten verursacht wird.

Daher sind die mathematischen Modelle, die wir nutzen, um KI-Algorithmen zu erzeugen, lediglich Vorgaben zur Abarbeitung regelhafter Prozesse. Sobald keine Regelhaftigkeit vorhanden ist, versagen die Modelle, egal auf welche Art und Weise sie entstehen.

Auch sogenannte tiefe neuronale Netze (deep neuronal networds – dNN) können nur Zusammenhänge abbilden, die oft wiederkehren oder eine andere Art der Regelmäßigkeit haben, wie beispielsweise evolutionär konservierte Faltungsmuster von Eiweißen, die den Erfolg von AlphaFold ermöglicht haben.

Daran scheitern KI-Syteme bislang

Woran KI-Systeme hingegen bis heute versagen, ist echte Kommunikation, die ein Verständnis des Gesagten und die Erzeugung dem Kontext adäquaten Äußerungen erfordert. Menschlicher Sprache fehlt die Regelmäßigkeit nahezu vollständig, weil sich der Mensch in seinem sprachlichen Verhalten ständig einer hochkomplexen Umgebung anpasst, in der jederzeit neue Muster entstehen und vergehen. Maschinenmodelle, die auf starre Regelmäßigkeit ausgerichtet sind, können an dieser Aufgabe nur scheitern.

Das zeigt die lange Kette von versagenden KI-Sprachalgorithmen wie den Chatbots „Tay“ von Microsoft und „M“ von Facebook. Nun musste auch Facebooks angebliche wissenschaftliche Texte lesende, „Galactica“ genannte KI abgeschaltet werden. Sie konnte brauchbare und unsinnige Ergebnisse nicht auseinanderhalten und arbeitete so, „als würde eine ganze Menge gute Speisen mit Hundeexkrementen vermischt, sodass man nicht mehr feststellen könne, was gut oder schlecht sei“, so Douglas Hofstadter, KI-Kritiker und bekannter Autor des populärwissenschaftlichen Klassikers „Gödel, Escher, Bach“. Auch GPT-3 und ChatGPT können nicht sinnvoll kommunizieren, sondern nur Zeichenketten ausgeben, die grob dem unmittelbaren Kontext einer Eingabekette entsprechen. Kommunikation erfordert echte Interpretation und auch Intentionalität zur Generierung von Äußerungen.

Um die Welt zu beherrschen, reicht es bei weitem nicht. Und solange KI-Systeme auf Mathematik beruhen, wird es auch in Zukunft nicht dazu kommen. Die Mathematik ist dafür schlicht nicht das passende Werkzeug. Angesichts des vorhersehbaren und regelmäßigen Scheiterns von KI in komplexen Situationen stellt sich die Frage, wie und wo man KI nutzbringend einsetzen kann.

Wo kann KI als Werkzeug nutzen?

KI-Algorithmen sind potentiell sehr nützliche mathematische Werkzeuge zur Abbildung auch sehr komplexer Regelmäßigkeiten (Mustererkennung). Erstklassige Einsatzmöglichkeiten bestehen beispielsweise in der Beobachtung von regelmäßigen Prozessen zur Klassifikation von Ausnahmen. Wenn das Muster eines regelhaften Prozesses gelernt wurde, kann ein Klassifikator gebaut werden, der Unregelmäßigkeiten erkennt. Beispielsweise können Produktions- und Logistikprozesse überwacht werden, sodass Produktionsfehler oder Materialverschwendung durch falsche Lagerhaltung oder suboptimale Logistikabläufe ermittelt werden können. Das funktioniert beispielsweise, indem aus Sensordaten Muster erzeugt werden, die dann einer Anomaliedetektion unterworfen werden. Weicht das Muster vom Soll ab, kann das Werkstück automatisch ausgesondert oder sogar verschrottet werden. In der Logistik weisen Variablen wie steigende Lagerbestände oder Energieverbrauch auf suboptimale Abläufe hin. Regressionsmodelle können solche Variablen aggregieren und daraus den „Gesundheitszustand“ einer Logistikkette oder ihrer Bestandteile berechnen . Auch Betrug bei Zahlungen lässt sich gut erkennen, weil es sich hierbei um Abweichungen von der Regel bei Routineabläufe handelt.

Der andere wichtige Bereich des KI-Einsatzes ist die Automatisierung sehr regelhafter Prozesse. Ein bekanntes Beispiel ist die sogenannte Neural Machine Translation, bei der Text mithilfe sogenannter neuronaler Netze automatisch übersetzt wird. Um ein angemessenes Verständnis von Texten zu gewinnen, deren sprachliche Muster den für das Training verwendeten Korpora entspricht, erhält man brauchbare Ergebnisse.

Gleichzeitig markiert dieses Beispiel aber auch die Grenze: Die Automatisierung gelingt nur, wenn der Akteur den Kontext seines Handelns nicht verstehen muss, um das Richtige zu tun. Wenn hingegen Semantik erforderlich ist, Vorwissen gebraucht wird oder der Zusammenhang verstanden werden muss, sinkt die Machbarkeit rasch. Erwartungen an exakte Semantik oder gar Textpragmatik (korrekte Übersetzung eines Satzes im Kontext des Texts) sollte man bei maschinellen Übersetzungen nicht haben. Bei Gedichten oder originellen wissenschaftlichen Texten scheitert der Algorithmus sogar ganz und gar. Semantische und pragmatische Fähigkeiten erfordern eine dem Menschen spezifische Intentionalität und Fähigkeit zur Begriffsbildung, die eine KI nicht besitzt. Die Effekte der KI auf unser Wirtschaftsleben werden daher nicht größer – aber auch nicht kleiner – ausfallen wie andere ganz normale Anwendungen der Mathematik. Die Anwendungen der Physik waren und sind immer noch ungleich wirkungsvoller.

Sich dieser Grenzen bewusst zu sein, ist eine entscheidende Voraussetzung für den erfolgreichen Einsatz von KI. Zahlreiche Projekte in den vergangenen Jahren sind von deutlich zu hohen Erwartungen an die Technologie ausgegangen – und gescheitert. Die Folge war Ernüchterung und oft eine komplette Abkehr.

Dabei weisen zahlreiche Geschäftsvorgänge hohe Regelmäßigkeiten und bei bestimmten Schritten auch geringe semantische Anforderungen auf. Längst nicht alle davon sind bereits automatisiert. Die Potenziale sind also nach wie vor da. Jeden Bereich einer Produktionsstraße oder eines Kundenprozesses kann man auf seine Automatisierbarkeit hin prüfen und auch immer wieder neue Ansätze finden. Wir stoßen dann auf sie, wenn wir KI nicht als Wunderwerkzeug begreifen, sondern als eine Verfeinerung der Automatisierungsbemühungen, die wir seit Beginn der industriellen Revolution vorantreiben.

Cognotekt_RGB_Türkis

Vor welcher Herausforderung
stehen Sie? Schreiben Sie uns.

Dr. Raija Kramer
info@cognotekt.com
+49 221-643065-10