Zum Inhalt springen
Christian Stöcker

KI-System GPT-3 Wir Menschen sind die Messlatte, und sie hängt niedrig

Christian Stöcker
Eine Kolumne von Christian Stöcker
Seit einigen Wochen dürfen viele Entwickler mit dem derzeit mächtigsten Werkzeug für künstliche Intelligenz herumspielen. Die Ergebnisse sind eindrucksvoll - werfen aber auch ein ziemlich schlechtes Licht auf uns Menschen.
Foto: sorbetto / Digital Vision Vectors / Getty Images

"Das Wort Information hat in dieser Theorie eine spezielle Bedeutung, die nicht mit seinem normalen Gebrauch verwechselt werden darf. Insbesondere darf Information nicht mit Bedeutung verwechselt werden."
Claude Shannon und Warren Weaver in "A Mathematical Theory of Communication" (1949)

Eine in gewisser Weise sehr beunruhigende Ausprägung dessen, was gemeinhin "künstliche Intelligenz" (KI) genannt wird, ist dieser kleine Roboter. Er hat freundliche, rechteckige Blinkeaugen und erinnert ein bisschen an einen winzigen Dyson-Staubsauger.

Wenn man ihn fragt "Welche Schauspielerin wird in der Eingangsszene des Films 'Scream' getötet?", antwortet er korrekt: "Drew Barrymore". Wenn man ihn fragt, was Existenzialismus ist, antwortet er: "Existenzialismus ist eine Philosophie, die die Freiheit des Individuums betont." Fragt man nach den Problemen dieser Denkschule, sagt der Roboter: "Sie ist zu subjektiv."

Empfohlener externer Inhalt
An dieser Stelle finden Sie einen externen Inhalt von X.com, der den Artikel ergänzt und von der Redaktion empfohlen wird. Sie können Ihre Zustimmung jederzeit wieder zurücknehmen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Den Roboter hat Softwareentwickler Jon Barber gebastelt, mithilfe der aufwendigsten Autocomplete-Funktion, die die Welt je gesehen hat: Dem auf einem gigantischen neuronalen Netz basierenden Sprachproduktionssystem GPT-3 der US-Firma OpenAI.  GPT-3 kann auf Basis minimaler Vorgaben Texte ergänzen oder fast zur Gänze selbst verfassen. Es kann Fragen beantworten und sogar Software schreiben. Viele Entwickler dürfen seit einem knappen Monat mit diesem neuen, erstaunlich mächtigen Werkzeug herumspielen. Sie haben dabei noch andere, erstaunliche Demonstrationen geschaffen.

Die englische Wikipedia ist nur ein kleiner Schnipsel

Dabei ist aber auch klar geworden, wo die Probleme einer scheinbar intelligenten Maschine liegen – genau da nämlich, wo man sie längst vermutet hatte.

GPT-3s extreme Leistungsfähigkeit hat viel mit der gewaltigen Größe des neuen Werkzeugs zu tun: Es besteht aus 175 Milliarden Parametern, also gewissermaßen 175 Milliarden Synapsen in einem künstlichen Netzwerk. Zum Vergleich: Ein menschliches Gehirn verfügt über etwa 100 Billionen Synapsen. Eine Billion sind Tausend Milliarden. GPT-3 ist also weit davon entfernt, ein Gehirn zu simulieren, aber es ist hundertmal umfangreicher als sein auch schon ziemlich eindrucksvoller Vorgänger GPT-2.

Das System wurde mit einer gewaltigen Menge aus dem Internet gefischtem Text trainiert. Dazu gehören zum Beispiel alle gut sechs Millionen Einträge in der englischsprachigen Wikipedia. Diese schon für sich genommen riesige Textmenge macht aber nur 0,6 Prozent der Gesamtheit an Stoff aus, mit der das System gefüttert wurde .  Was genau GPT-3 alles gefuttert hat, ist unbekannt.

Auch Claude Shannons Frau musste raten

GPT-3 ist ein bisschen wie die Außerirdischen, die manchmal in Filmen vorkommen, die sich zwei Tage vor einen laufenden Fernseher setzen und anschließend auf dieser Basis sprechen und die Welt verstehen gelernt haben. Schon dieses Szenario ließ einen immer etwas ratlos zurück – wie genau sähe wohl das Weltbild von jemandem aus, der alles, was er weiß, aus "Celebrity Big Brother", Quizshows und Chuck-Norris-Filmen gelernt hat?

Es gibt außerdem einen wichtigen Unterschied zwischen den fiktionalen Aliens und der lernenden Maschine: GPT-3 versteht rein gar nichts. Auch die leistungsfähigsten Computer und Anwendungen der Gegenwart manipulieren pure "Information". Und zwar nicht im landläufigen, umgangssprachlichen Sinn, sondern in der strengen, eingangs zitierten Definition von Shannon und Weaver: "Information darf nicht mit Bedeutung verwechselt werden." Information ist demnach ein Maß für statistische Vorhersagbarkeit, nicht mehr und nicht weniger.

GPT-3s Umgang mit Text ist tatsächlich verblüffend nah an der ursprünglichen Konzeption von Shannon und Weaver: Es "errät" auf Basis aus einer gigantischen Menge von Text extrahierten statistischen Abhängigkeiten zwischen Wörtern, Sätzen und Textteilen, wie ein vorgegebener Textschnipsel weitergehen könnte. Claude Shannon selbst ließ in den Vierzigerjahren seine Frau erraten, wie vorgegebene Sätze weitergehen könnten, um zu ermitteln, wieviel Bit Information ein gegebener Satz tatsächlich enthält. Es gibt aber einen fundamentalen Unterschied zwischen Frau Shannon und GPT-3: Was die Wörter und Sätze "bedeuten", versteht die Maschine nicht.  

"Kreativ, geistreich, tiefsinnig, meta und schön"

Der Essayist und Forscher Gwern Branwen, der GPT-3 diverse Tricks hat vorführen lassen, schreibt trotzdem : "GPT-3s Beispiele sind nicht nur nah an menschlichem Niveau: Sie sind kreativ, geistreich, tiefsinnig, meta und oft schön."

Das System kann (mehr oder minder gelungene) Wortspiele schreiben  und Harry-Potter-Detektivgeschichten im Stil von Raymond Chandler , es kann ein authentisch irres CNN-Interview mit Kanye West simulieren, und einen Dialog zwischen Alan Turing und Claude Shannon . Oder Spottgedichte über Elon Musk  (einen der ursprünglichen Finanziers von OpenAI) verfassen.

Und weil auch andere Dinge als menschliche Sprache Text sind, kann GPT-3 auch andere Texte schreiben – Gitarren-Tabulaturen zum Beispiel . Oder Software, was John Carmack, den legendären "Doom"-Erfinder, "ein bisschen erschauern" ließ . Tatsächlich ist das System offenbar auch in der Lage, auf Basis ein paar einfacher Anweisungen in normaler englischer Sprache eine funktionale Webseite oder App-Oberfläche zu konstruieren .

Anzeige
Christian Stöcker

Das Experiment sind wir

Verlag: Karl Blessing
Seitenzahl: 384
Für 22,00 € kaufen

Preisabfragezeitpunkt

28.04.2024 01.47 Uhr

Keine Gewähr

Produktbesprechungen erfolgen rein redaktionell und unabhängig. Über die sogenannten Affiliate-Links oben erhalten wir beim Kauf in der Regel eine Provision vom Händler. Mehr Informationen dazu hier

Die Maschine muss Manieren lernen

Die anfangs in schneller Folge auf Twitter oder in Entwicklerblogs präsentierten, natürlich handverlesenen Beispiele für die Leistungsfähigkeit des Systems wurden irgendwann sogar dem Chef von OpenAI selbst zu viel. "Der Hype ist viel zu groß", twitterte Sam Altman .

Noch problematischer als der Hype waren für Altman aber die schnell auftauchenden Probleme, die so ein nicht mit Fernsehen, sondern mit dem chaotischen Internet selbst "gebildeter" Außerirdischer zwangsläufig verursachen musste: Ein GPT-3-basierter Tweet-Generator etwa produzierte, wenn man ihn mit bestimmten Begriffen fütterte, auch mal extrem antisemitische oder sexistische Textschnipsel .

Das führte zu einer interessanten Twitter-öffentlichen Debatte zwischen OpenAI-Chef Altman und Facebooks KI-Chef Jerome Pesenti . Im Verlauf der Diskussion sprach der Facebook-Mann von gefährlicher "Verantwortungslosigkeit" und schrieb diesen Satz, den sich sein eigenes Unternehmen unbedingt zu Herzen nehmen sollte: "Der Verweis auf 'Nicht intendierte Konsequenzen' ist das, was zu dem aktuellen Misstrauen in die Tech-Branche  geführt hat." Bislang hört man die Ausrede "die Maschine war’s" vor allem von Firmen wie Facebook, Google oder Amazon.

Menschen sind oft schlechte Vorbilder

GPT-3 richtet also einen Scheinwerfer auf das grundlegende Problem lernender Maschinen, das sich auch in auf Zornauslösung optimierten Facebook-Feeds oder extremistisch-verschwörungstheoretischen YouTube-Empfehlungen zeigt: Menschen sind oft miserable Vorbilder. Deshalb ist Maschinen, die von uns lernen, nicht zu trauen.

GPT-3 hat ja nicht nur aus der Wikipedia gelernt, sondern vermutlich auch, so formuliert es das US-Tech-Portal "The Verge", "aus pseudowissenschaftlichen Lehrbüchern, Verschwörungstheorien, rassistischen Pamphleten und den Manifesten von Massenmördern".

Die Maske herunterreißen

Mittlerweile hat OpenAI einen "Toxicity Filter" eingebaut, der die schlimmsten automatisierten Auswüchse verhindern soll. Als müsse man dem Außerirdischen, der seine Verhaltensweisen aus Chuck-Norris-Filmen gelernt hat, jetzt dringend beibringen, dass man andere zur Begrüßung nicht niederschlägt.

Oder, um es mit dem Softwareentwickler Simon Sarris zu sagen : "Wir reißen nicht der Maschine die Maske herunter und enttarnen so einen genialen Zauberer, wir reißen uns gegenseitig die Maske herunter und zeigen so, wie niedrig die Latte hängt."

Anmerkung der Redaktion: In einer früheren Version dieses Textes war der eingangs erwähnte Titel von Claude Shannon und Warren Weaver nicht korrekt wiedergegeben. Wir haben den Fehler korrigiert.