veröffentlicht am 10.01.2023
Das Word Economic Forum (WEF) ist ein wesentliches Machtzentrum der globalen wirtschaftlichen und politischen Ordnung. Sein Gründer, der Vordenker und Organisator Klaus Schwab, glaubt, dass Künstliche Intelligenz (KI) die Wirtschaft revolutionieren und durch Automatisierung menschlicher Arbeit einen hohen Anteil der heutigen Arbeitsplätze überflüssig machen wird.
Von Jobst Landgrebe
Viele prominente Meinungsbildner wie Ray Kurzweil von Google, Elon Musk oder der bekannte verstorbene Physiker Stephen Hawking befürchten, dass KI bald klüger werden könnte als der Mensch und sich zu AI-Overlords (KI-Herrschern) entwickeln würden, die die Menschheit unterjochen könnten.
Die Öffentlichkeit schwankt zwischen Hoffnung auf KI im Einsatz in der Medizin oder zur Erledigung mühsamer Arbeiten durch Roboter einerseits und Angst vor KI-Polizisten oder KI-Soldaten, Terminatoren, die dem Vernehmen nach als Ordnungskräfte eingesetzt werden sollen, andererseits. Noch mehr Angst erzeugt die Vorstellung von KI-Herrschern.
Wie sieht es das WEF? Es betreibt zahlreiche Abteilungen, eine davon auch zum Thema Künstliche Intelligenz. Diese Abteilung versichert uns, die Mission des WEF beim Thema KI umfasse die Sicherstellung von Privatsphäre, Verantwortlichkeit und fördere Gleichheit und Inklusion, wobei der private und öffentliche Sektor zusammengebracht würden, um Richtlinien zu implementieren, die den Nutzen der KI optimieren. Das klingt deutlich realistischer als die Prophezeiungen des WEF-Vorsitzenden.
Noch pragmatischer sehen es KI-Theoretiker und Praktiker wie Yann LeCun, Yoshua Bengio, Brian Cantwell Smith oder François Chollet, die KI ganz nüchtern als Teil der angewandten Mathematik ansehen. Die Vorstellung, KI könnte menschliche Intelligenz erreichen oder sogar übersteigen, halten sie für unsinnig.
Doch wem sollen wir glauben – den düsteren Prophezeiungen Stephen Hawkings oder Elon Musks? Oder nüchternen Praktikern wie François Chollet, der KI für unmöglich hält? Oder liegt die Wahrheit in der Mitte?
Schauen wir uns einmal an, wann man von KI spricht und was KI-Algorithmen eigentlich machen sollen. KI entstand als Feld der angewandten Mathematik in den 1940er-Jahren, zum ersten Mal wurde der Begriff vom genialen Mathematiker Alan Turing verwendet. Das Ziel dieser Disziplin ist es, mithilfe mathematischer Modelle, die in einem Computer berechenbar sind, die menschliche Intelligenz zu emulieren.
Bis heute hat sich daran im Grunde nichts geändert. Und genau hier liegt der Schlüssel zu den Grenzen von KI-Systemen. Wir wissen zwar nicht, wie das Gehirn intelligentes Verhalten hervorbringt, doch wissen wir, dass Tiere und Menschen komplexe Systeme sind, die sich von einfachen Systemen deutlich unterscheiden. Solche Systeme verändern sich ständig und bringen Vorgänge oder Verhaltensmuster hervor, die stets einmalig sind. Sie lassen sich mathematisch nicht modellieren. Sie sind vergleichbar mit einer Welle, die an einer Küste brandet. Auf der Feinebene ist keine Welle jemals mit einer anderen Welle identisch. Man kann die Feinstruktur einer Welle also nicht vorhersagen, indem man andere Wellen beobachtet, egal wie viele. So ist es auch mit der Intelligenz. Sie ist die Eigenschaft eines komplexen Systems. Wir haben dafür weder beschreibende noch kausal erklärende noch vorhersagefähige Modelle. Wir verstehen nicht, wie intelligentes Verhalten verursacht wird.
Daher sind die mathematischen Modelle, die wir nutzen, um KI-Algorithmen zu erzeugen, lediglich Vorgaben zur Abarbeitung regelhafter Prozesse. Sobald keine Regelhaftigkeit vorhanden ist, versagen die Modelle, egal auf welche Art und Weise sie entstehen.
Auch sogenannte tiefe neuronale Netze (deep neuronal networds – dNN) können nur Zusammenhänge abbilden, die oft wiederkehren oder eine andere Art der Regelmäßigkeit haben, wie beispielsweise evolutionär konservierte Faltungsmuster von Eiweißen, die den Erfolg von AlphaFold ermöglicht haben.
Woran KI-Systeme hingegen bis heute versagen, ist echte Kommunikation, die ein Verständnis des Gesagten und die Erzeugung dem Kontext adäquaten Äußerungen erfordert. Menschlicher Sprache fehlt die Regelmäßigkeit nahezu vollständig, weil sich der Mensch in seinem sprachlichen Verhalten ständig einer hochkomplexen Umgebung anpasst, in der jederzeit neue Muster entstehen und vergehen. Maschinenmodelle, die auf starre Regelmäßigkeit ausgerichtet sind, können an dieser Aufgabe nur scheitern.
Das zeigt die lange Kette von versagenden KI-Sprachalgorithmen wie den Chatbots „Tay“ von Microsoft und „M“ von Facebook. Nun musste auch Facebooks angebliche wissenschaftliche Texte lesende, „Galactica“ genannte KI abgeschaltet werden. Sie konnte brauchbare und unsinnige Ergebnisse nicht auseinanderhalten und arbeitete so, „als würde eine ganze Menge gute Speisen mit Hundeexkrementen vermischt, sodass man nicht mehr feststellen könne, was gut oder schlecht sei“, so Douglas Hofstadter, KI-Kritiker und bekannter Autor des populärwissenschaftlichen Klassikers „Gödel, Escher, Bach“. Auch GPT-3 und ChatGPT können nicht sinnvoll kommunizieren, sondern nur Zeichenketten ausgeben, die grob dem unmittelbaren Kontext einer Eingabekette entsprechen. Kommunikation erfordert echte Interpretation und auch Intentionalität zur Generierung von Äußerungen.
Vor welcher Herausforderung
stehen Sie? Schreiben Sie uns.
Dr. Raija Kramer
info@cognotekt.com
+49 221-643065-10