Warum Sie Google, Microsoft ChatGPT-Klonen nicht vertrauen sollten

Ein paar Tage nachdem Google und Microsoft angekündigt hatten, dass sie Suchergebnisse liefern würden, die von Chatbots generiert werden – künstlich intelligente Software, die in der Lage ist, unheimlich menschlich klingende Prosa zu produzieren – machte ich mir Sorgen, dass unseren neuen KI-Helfern nicht zu trauen ist. Schließlich hatten Googles eigene KI-Forscher das Unternehmen gewarnt, dass Chatbots „stochastische Papageien“ (die wahrscheinlich falsche, dumme oder beleidigende Dinge kreischen) und „anfällig für Halluzinationen“ (anfällig dafür, Dinge nur zu erfinden) sein würden. Die Bots, die sich auf sogenannte große Sprachmodelle stützen, „sind darauf trainiert, die Wahrscheinlichkeit von Äußerungen“, schrieb ein Team von DeepMind, dem KI-Unternehmen im Besitz von Alphabet, letztes Jahr in einer Präsentation über die Risiken von LLMs wahrscheinlich gibt nicht zuverlässig an, ob der Satz auch richtig ist.”

Mit anderen Worten, diese Chatbots sind nicht wirklich intelligent. Sie sind lügende Dummköpfe.

Es dauerte nicht lange, bis die Chatbots selbst den Beweis erbrachten. Eine Anzeige letzte Woche für Googles Bot Bard zeigte, dass er eine falsche Antwort auf eine Frage bekommt; Die Aktienbewertung des Unternehmens erlitt einen milliardenschweren Einbruch. Die Antworten, die Bings Bot Sydney in seiner offenen Demonstration gab, hielten unterdessen nicht einmal rudimentären Faktenchecks stand.

Das sieht schlimm aus! Die Online-Suche war bereits ein ununterbrochener Kampf gegen Spam, suchmaschinenoptimiertes Kauderwelsch und die Bedürfnisse von Werbetreibenden. Aber Suchmaschinen waren dennoch eine gesellschaftliche Mizwa. Sie brachten Ordnung in den chaotischen Datenraum des Internets und standen irgendwo zwischen Information und Wissen und halfen uns, das eine in das andere zu überführen. Wir haben gelernt, ihnen zu vertrauen.

Und so haben sie uns erwischt. Chatbots sind Bullshit-Engines, die gebaut wurden, um Dinge mit unbestreitbarer Sicherheit und ohne jegliches Fachwissen zu sagen. Kein Wunder, dass die Tech-Elite sie scherzhaft „Mansplaining as a Service“ nennt. Und jetzt werden sie die primäre Art und Weise sein, wie sich Menschen Tag für Tag Wissen aneignen.

Also warum kaufen wir ihren Bullshit? Auch wenn wir von Anfang an wissen, dass unsere neuen Roboter-Bibliothekare sehr fehlerhaft sind, werden wir sie immer noch millionenfach pro Stunde einsetzen und auf der Grundlage der Antworten, die sie uns geben, Maßnahmen ergreifen. Was bringt Menschen dazu, einer Maschine zu vertrauen, von der wir wissen, dass sie nicht vertrauenswürdig ist?

Um ehrlich zu sein, niemand weiß wirklich, warum jemand glaubt irgendetwas. Nach Jahrtausenden der Debatte haben sich die weltweit führenden Philosophen, Psychologen und Neurowissenschaftler nicht einmal auf einen Mechanismus geeinigt, warum Menschen dazu kommen, Dinge zu glauben, oder was Überzeugungen überhaupt sind. Daher ist es schwer zu wissen, wie sie funktionieren oder warum eine Sache glaubwürdiger ist als eine andere. Aber ich habe einige Spekulationen darüber, warum wir auf den Shtick von ChatGPT hereinfallen werden. Wir Menschen lieben einen aalglatten Grifter mit beeindruckend klingenden Referenzen. Und die Bots werden immer raffinierter darin, uns zu betrügen.

Autoritätspersonen

In den letzten Jahrzehnten wurde viel darüber geforscht, warum Menschen Fehlinformationen glauben. Die meisten dieser Arbeiten gingen davon aus, dass wir in Form von Propaganda oder sozialen Medien hauptsächlich auf Fiktion stoßen würden, die sich als Tatsache ausgibt. Aber das soll sich ändern. Fehlinformationen werden nun in die von uns verwendeten Suchmaschinen eingebettet. Und ein Facebook-Post hat viel weniger Glaubwürdigkeit als eine Antwort auf eine Frage, die Sie gegoogelt haben.

Nun, nicht alle Überzeugungen werden stark vertreten oder basieren sogar auf Beweisen. Vielleicht behandeln die Leute Chatbot-Antworten so, wie wir mit neuen Informationen umgehen. Joe Vitriol, ein Politikwissenschaftler an der Lehigh University, der sich mit Desinformation befasst, sagt, er erwarte, dass die Menschen „ihre Ergebnisse auf voreingenommene oder eigennützige Weise akzeptieren werden, wie es Menschen mit jeder anderen Informationsquelle tun“. Mit anderen Worten, die Leute werden einem Chatbot glauben, wenn er ihnen Dinge sagt, die mit ihren bestehenden Überzeugungen und Meinungen übereinstimmen – genau wie sie es mit traditionellen Google-Ergebnissen tun. Ob der Chatbot die Wahrheit sagt oder halluziniert, spielt keine Rolle.

Die Verpackung dieser Antworten – in Absätzen, die sich nicht wesentlich von denen unterscheiden, die Sie gerade lesen, aber mit dem Google-Imprimatur – könnte das Gleichgewicht weiter in Richtung Leichtgläubigkeit kippen. Wir wollen Die Ergebnisse von Google sind wahr, weil wir Google als vertrauenswürdigen Schiedsrichter betrachten, wenn nicht gar als Autorität. „Naive Benutzer können davon ausgehen, dass der Bot Glaubwürdigkeit hat, die menschliche Akteure nicht haben“, sagt Vitriol. „Ich frage mich, ob die Leute besonders wahrscheinlich die Möglichkeit vernachlässigen oder außer Acht lassen werden, dass der Bot, insbesondere in seiner jetzigen Form, unter denselben Vorurteilen und Denkfehlern leidet wie Menschen.“

Hier vermute ich, dass die Fähigkeit eines Chatbots, Prosa zu generieren, im Gegensatz zu einer Liste nützlicher Links, gefährlich wird. Menschen vermitteln Überzeugungen sozial, durch Sprache. Und wenn viele von uns ein Glaubenssystem teilen, bilden wir eine geschlossenere und harmonischere Gruppe. Aber das ist ein hackbares System. Weil Ideen, die gut kommuniziert werden – mit den richtigen Worten, Formulierungen und Tönen – überzeugender wirken können. Die Bots verwenden das Ich-Ich, obwohl es keine Person gibt. Für einen gelegentlichen Leser werden die Antworten von Bard und Sydney menschlich genug rüberkommen, und das bedeutet, dass sie es tun werden fühlen umso wahrer.

Die Macht der Geschichte

Eine andere mögliche Erklärung dafür, warum wir auf Chatbots stehen, ist, dass wir auf Chatbots stehen Erläuterung. Auf einer grundlegenden menschlichen Ebene ist es einfach sehr, sehr befriedigend, Verwirrung gegen Gewissheit einzutauschen. Es gibt uns das Gefühl, klug zu sein und die Kontrolle über Dinge zu haben, über die wir keine Kontrolle haben.

Das Problem ist, dass wir nicht wirklich wissen, was Menschen dazu bringt, auf eine Erklärung gegenüber einer anderen hereinzufallen. Einige Untersuchungen deuten darauf hin, dass die Erklärungen mit der größten Kraft diejenigen sind, die am einfachsten und am breitesten anwendbar sind. Andere Untersuchungen haben gezeigt, dass Menschen, wenn sie die Wahl haben, eher Geschichten glauben, die mehr Details enthalten. (Kieran Healy, ein Soziologe an der Duke University, schrieb eine Abhandlung, in der er unsere Neigung zur Überkomplizierung von Dingen anprangerte; er nannte sie „Fuck Nuance“.) Und eine Metaanalyse von 61 Abhandlungen aus fünf Jahrzehnten Forschung ergab, dass der Kontext am wichtigsten ist. In emotionalen Bereichen macht eine Portion Storytelling eine Erklärung glaubwürdiger. In weniger persönlichen Angelegenheiten, wie der öffentlichen Ordnung, ziehen es die Menschen vor, Tatsachen zu haben, die nicht mit Narrativen geschmückt sind.

Chatbots sind Bullshit-Engines, die gebaut wurden, um Dinge mit unbestreitbarer Sicherheit und ohne jegliches Fachwissen zu sagen.

„Ich glaube nicht, dass es einen Konsens darüber gibt, was eine Erklärung attraktiv macht“, sagt Duncan Watts, ein Soziologe, der einen Kurs an der University of Pennsylvania lehrt. Und das, denken Sie daran, ist von einem Typen, der einen Kurs namens Explaining Explanations unterrichtet.

Aber was auch immer das sicher ist je ne sais quoi ist, KI-Chatbots scheinen es zu haben. Nur wenige Tage bevor Google und Microsoft ihre bevorstehende Botifizierung ankündigten, veröffentlichte ein Team von Sozialwissenschaftlern in Stanford einen faszinierenden Preprint. Sie zeigten Tausenden von Menschen kurze, überzeugende Artikel zu brandaktuellen Themen wie dem Verbot von Angriffswaffen und CO2-Steuern. Einige Versionen wurden von einem GPT-3-Chatbot geschrieben; andere von einem Menschen. Dann haben die Wissenschaftler gemessen, wie sehr die Menschen ihre Meinung aufgrund der Artikel geändert haben.

Wie sich herausstellte, waren die von der KI generierten Nachrichten genauso überzeugend wie die von Menschen. Aber der wilde Teil ist Warum. Als die Forscher ihre menschlichen Probanden befragten, sagten diejenigen, die die Chatbot-Artikel bevorzugten, dass die handwerklichen, von Menschen gemachten Nachrichten zu sehr auf Anekdoten und Bildern beruhten. GPT-3 war eher evidenzbasiert und gut begründet. Genau die Eigenschaft, die den Roboter weniger menschlich machte, ließ die Menschen eher daran glauben. Genau wie ihre “Terminator”-Vorfahren empfanden die Chatbots weder Mitleid noch Reue oder Angst. Und sie hörten absolut nicht auf, bis die menschlichen Untertanen überzeugt waren.

Du fauler Bastard

Die Chatbots werden also lügen und Dinge falsch machen. Meine größte Sorge ist, dass Google- und Bing-Nutzer dies wissen und sich einfach nicht darum kümmern. Eine Theorie, warum sich Desinformation und Fake News verbreiten, ist, dass die Menschen geradezu faul sind. Sie kaufen alles, was eine vertrauenswürdige Quelle verkauft. Wenn die Chatbots meistens die meiste Zeit richtig liegen, ist das gut genug. Bis, sagen wir, Ihr Flug zu diesem Zeitpunkt nicht wirklich von diesem Flughafen abfliegt. Oder Ihr Haus brennt, weil Sie einen Lichtschalter falsch installiert haben.

Vor ein paar Wochen bat ich Watts, den Soziologen, um Hilfe bei einer Geschichte darüber, warum Menschen verrückte Verschwörungstheorien glauben. Er schlug mir vor, eine 25 Jahre alte Arbeit von Alison Gopnik, einer Psychologin an der University of California in Berkeley, mit dem Titel „Erklärung als Orgasmus“ zu lesen.

Gopnik ist vor allem für ihre Arbeiten zur Entwicklungspsychologie von Kindern bekannt. Sie sagt, dass Kleinkinder mentale Modelle der Welt erstellen, indem sie Beobachtungen verwenden, um Hypothesen zu testen – im Wesentlichen die wissenschaftliche Methode. Aber in ihrem Artikel über Erklärungen schlägt Gopnik vor, dass Menschen zwei Systeme haben, um herauszufinden, wie die Welt funktioniert. Einer ist, sich zu fragen, warum die Dinge so sind, wie sie sind – ein „hmm-System“, wenn man so will. Die andere dient der Entwicklung von Erklärungen – einem „Aha-System“. Wie unsere biologischen Systeme für Fortpflanzung und Orgasmus, sagt Gopnik, sind die beiden kognitiven Systeme verwandt, aber getrennt. Wir können das eine tun, ohne das andere zu tun. Der zweite fühlt sich gut an und ist eine Belohnung für den ersten.

Aber das Aha-System ist austricksbar. Psychedelische Erfahrungen können ein Gefühl hervorrufen, dass „alles Sinn macht“, auch wenn sie keine artikulierbare Erklärung dafür liefern, wie. Träume können das auch. Wenn Sie um 3 Uhr morgens aufwachen und sich eine Notiz schreiben, um sich an eine brillante Erkenntnis zu erinnern, die Ihnen im Schlaf kam, machen Ihre Kritzeleien am nächsten Morgen keinen Sinn.

Mit anderen Worten, das Gefühl, etwas zu haben, das wie eine Erklärung aussieht, kann sich so verdammt gut anfühlen, dass es den Teil unseres Verstandes überwältigen kann, der die Frage überhaupt hatte. Wir irren uns ein Antwort für Die antworten.

So soll es nicht sein. 1877 schrieb ein Philosoph namens William Clifford einen Artikel mit dem Titel „The Ethics of Belief“, in dem er argumentiert, dass Glaube aus geduldiger Untersuchung entstehen muss, nicht nur aus der Unterdrückung von Zweifeln. Unsere Ideen sind Gemeingut, betont er – ein „Erbstück“, das an nachfolgende Generationen weitergegeben wird. Es ist „ein schreckliches Privileg und eine schreckliche Verantwortung, dass wir helfen sollten, die Welt zu erschaffen, in der die Nachwelt leben wird“.

Die Versuchung, dieser Verantwortung auszuweichen, ist mächtig. Clifford verstand wie Gopnik, dass sich Erklärungen gut anfühlen, selbst wenn sie falsch sind. „Es ist das Gefühl der Macht, das mit einem Sinn für Wissen verbunden ist, der Menschen dazu bringt, den Wunsch zu haben, zu glauben, und Angst vor dem Zweifel“, argumentiert Clifford. Werden Sie Zeuge des Rennens, um all die nicht identifizierten Objekte zu erklären, die über Saskatchewan abgeschossen werden. Lieber an Aliens glauben, als in Angst vor dem Unbekannten zu leben.

Clifford bietet ein Gegengift für diese Versuchung. Seine Antwort ist im Grunde: Nicht heute, Satan. „Die heilige Tradition der Menschheit“, sagt er, „besteht nicht aus Aussagen oder Aussagen, die auf Grund der Autorität der Tradition angenommen und geglaubt werden müssen, sondern aus richtig gestellten Fragen, aus Vorstellungen, die uns befähigen, weitere Fragen zu stellen, und in Methoden zur Beantwortung von Fragen.”

Die Bots bieten uns einfache Antworten. Wir müssen uns nur daran erinnern, dass das nicht das ist, wonach wir fragen sollten.


Adam Rogers ist leitende Korrespondentin bei Insider.

Leave a Reply

Your email address will not be published. Required fields are marked *