Das ganze Wissen der Welt in einem Gespräch – das ist das große Versprechen von Chatbots. Leider hat das eine eklantante Schwäche, wie ein aktueller Fall zeigt.
Künstliche Intelligenz wie ChatGPT soll auf längere Sicht Suchmaschinen ersetzen und uns immer aktuelle Antworten liefern – einfach indem wir nachfragen. Die wichtigste Frage ist dann, woher die Bots dieses Wissen haben. Die beiden größten Programme, ChatGPT und Bard, wurden nun dabei erwischt, wie sie groben Unfug erzählten – weil sie sich gegenseitig als Datenquelle benutzt hatten.
Erwischt hat sie dabei der Journalist James Vincent. Und das nur durch Zufall. Als Google seinen neuen KI-Assistenten Bard für die Öffentlichkeit freigegeben hatte, wollte Vincent herausfinden, wie ChatGPT damit umgeht. Und fragte es, ob der Konkurrent bereits eingestellt worden sei. Die KI hatte sofort eine Antwort: Am 21. März sei Bard abgestellt worden, behauptete sie selbstbewusst wie faktisch falsch. Doch als Vincent dem Grund der Falschbehauptung nachgehen wollte, staunte er nicht schlecht.
Zitate von Zitaten von Zitaten
Wie immer hatte ChatGPT die Quelle gleich mitgeliefert – und sie komplett missverstanden. In dem verlinkten Artikel ging es nämlich eigentlich um einen Tweet: Der zeigte einen Screenshot von einem Gespräch, in dem Bard von sich selbst behauptet hatte, bereits abgeschaltet worden zu sein. Dass es dazu kam, lag wiederum daran, dass Bard ebenfalls eine Quelle falsch interpretiert hatte. Er hatte von seinem eigenen Abschalten aus einem Forenpost erfahren. Bei dem handelte es sich allerdings im einen Witz. Dass Bard diesen für glaubhaft hielt lag daran, dass jemand einen gefälschten Newsartikel darüber verfasst hatte – und dazu ChatGPT genutzt hatte.
Die KIs hatten also nicht nur faktisch falsche Artikel herangezogen und sich auf jeweils nur eine Quelle bezogen, um sehr selbstsicher Unfug zu erzählen. Sie hatten sich dabei sogar indirekt gegenseitig zitiert. Und damit KI-generierte Inhalte zur Tatsachen-Behauptung aufgeblasen.
Die große Welle kommt noch
Denkt man das noch etwas weiter, fällt es nicht schwer zu sehen, warum sich das sehr schnell zu einem großen Problem entwickeln dürfte. Denn: Noch haben die Sprach-KIs mit Inhalten gelernt, die von Menschen erstellt wurden. Was aber, wenn immer größere Teile des Internets Internets in Zukunft maschinengeneriert sein werden?
Schon jetzt haben die KIs, wie viele Menschen auch, Probleme, Fakenews und Falschbehauptungen im Netz zuverlässig einzuordnen. Werden aber immer größere Teile des Internets nicht mehr von Menschenhand geschrieben, sondern automatisiert generiert, wird sich das nur noch weiter verstärken. Ein als Witz gemeinter Tweet wird dann zur Quelle, die von den KIs dann endgültig nicht mehr als nicht ernstzunehmend erkannt wird. Die dann daraus generierten Texte werden nun als valide zitiert. Und plötzlich sind neue Fakten geschaffen.
Stille Post für Desinformationen
Was als Missverständnis ärgerlich genug ist, wird zur echten Gefahr, wenn es bewusst geschieht. So wie heute Webseitenbetreiber bewusst eine Optimierung ihrer Inhalte für Suchmaschinen betreiben, dürfte es bald auch entsprechende Bestrebungen geben, um die Zitate der Bots zu maximieren – und die entsprechenden Manipulations-Möglichkeiten auch genutzt werden.
Das Missbrauchspotenzial ist gigantisch. Schmierenkampagnen gegen Konkurrenzprodukte durch Unternehmen wären da noch die harmloseste Variante. Ob Politik, Gesundheit oder die Gesellschaft an sich: Gelingt es, die Antworten der Bots nach der eigenen Agenda auszurichten, ließe sich damit der Blick auf Realität beeinflussen. Und das bei einem vermeintlich neutralen Medium.
KI-geschaffene Wahrheiten
Wie die sozialen Medien in den letzten Jahren für Desinformationen zu politischen oder gesellschaftlichen Themen benutzt wurden, dürfte dabei nur eine Vorschau für das sein, was mit KI-Optimierung möglich wäre. Die dort geführten Desinformations-Strategien zielten auf die Mechanik der Netzwerke ab: Weil die ihre Nutzer nach Interessen sortieren und die Inhalte nach Engagement ausspielen, ließen sich mit Wut und anderen starken Emotionen Filterblasen entwickeln, in denen man radikalisierte Nutzer mit Falschinformationen manipulieren konnte.
Eine gezielte Manipulation der KI-Bots hätte aber einen viel größeren Effekt. Anders als bei Facebook und Co. werden die Inhalte dort nicht nur zielgerichtet an kleine Gruppen ausgespielt. Gelänge es, den Bots bewusst Falschinformationen unterzujubeln, würden diese die allen Fragenden als scheinbar neutrale Wahrheiten verkünden.
Den Betreibern ist das durchaus bewusst. Die Unternehmen versuchen, Desinformationen gezielt auszusortieren. ChatGPT-Entwickler OpenAI etwa betonte bereits bei der Vorstellung des letzten Updates auf GPT-4, dass der Bot nun erheblich weniger faktische Fehler macht. Laut einer Studie von “NewsGuard” soll das aber nach hinten losgegangen sein: Die neue Version soll sogar mehr Fehler machen. Und das bei größtenteils von Menschen verfassten und vorausgewählten Quellen. Wie sie aus den drohenden Fluten aus KI-generierten Inhalten die validen herauspicken sollen, ist eine ganz andere Frage.
Quellen:The Verge, Twitter, OpenAI, NewsGuard
Quelle: Stern