„
Der konservative Aktivist Robby Starbuck hat eine Verleumdungsklage gegen Meta eingereicht, in der behauptet wird, dass der Chatbot des Social-Media-Riesen künstliche Intelligenz falsche Aussagen über ihn verbreitet habe, darunter die Behauptung, dass er am 6. Januar 2021 am Sturm auf das US-Kapitol teilgenommen habe.
Starbuck, der dafür bekannt ist, sich gegen Unternehmens-DEI-Programme zu richten, sagte, er habe im August 2024 die Behauptungen von Metas KI entdeckt, als er gegen „woke DEI“-Richtlinien des Motorradherstellers Harley-Davidson vorging.
„Ein Händler war unglücklich mit mir und veröffentlichte einen Screenshot von Metas KI, um mich anzugreifen“, schrieb er in einem Beitrag auf X. „Dieser Screenshot war voller Lügen. Ich konnte nicht glauben, dass er echt war, also überprüfte ich es selbst. Es wurde noch schlimmer, als ich es überprüfte.“
Seitdem sagte er, dass er „einer ständigen Flut von falschen Anschuldigungen ausgesetzt sei, die meinem Charakter und der Sicherheit meiner Familie schweren Schaden zufügen.“
Der politische Kommentator betonte, dass er sich während des Sturms auf das Kapitol am 6. Januar in Tennessee befand. Die Klage, die am Dienstag beim Delaware Superior Court eingereicht wurde, fordert mehr als 5 Millionen Dollar Schadensersatz.
In einer per E-Mail verschickten Erklärung sagte ein Sprecher von Meta, dass „im Rahmen unserer kontinuierlichen Bemühungen zur Verbesserung unserer Modelle haben wir bereits Updates veröffentlicht und werden dies weiterhin tun.“
Die Klage von Starbuck reiht sich in ähnliche Fälle ein, in denen Menschen KI-Plattformen wegen von Chatbots bereitgestellten Informationen verklagt haben. Im Jahr 2023 reichte ein konservativer Radiomoderator in Georgia eine Verleumdungsklage gegen OpenAI ein, in der behauptet wurde, dass ChatGPT falsche Informationen geliefert habe, indem behauptet wurde, er habe Gelder von der Second Amendment Foundation, einer Waffenrechtsgruppe, veruntreut und unterschlagen.
James Grimmelmann, Professor für digitales und Informationsrecht an der Cornell Tech und der Cornell Law School, sagte, dass es „keinen grundsätzlichen Grund“ gebe, warum KI-Unternehmen in solchen Fällen nicht haftbar gemacht werden könnten. Tech-Unternehmen könnten sich seiner Meinung nach nicht vor Verleumdung schützen, indem sie einfach einen Haftungsausschluss anbringen.
„Man kann nicht sagen: ‚Alles, was ich sage, könnte unzuverlässig sein, also sollten Sie es nicht glauben. Und übrigens, dieser Typ ist ein Mörder.‘ Ein allgemeiner Haftungsausschluss kann dazu beitragen, den Grad zu reduzieren, in dem Sie als Aussage wahrgenommen werden, aber ein allgemeiner Haftungsausschluss löst nicht alles“, sagte er. „Es gibt nichts, was die Ausgaben eines KI-Systems wie diesem kategorisch ausschließen würde.“
Grimmelmann sagte, dass es einige Ähnlichkeiten zwischen den Argumenten gibt, die Tech-Unternehmen in KI-bezogenen Verleumdungs- und Urheberrechtsverletzungsfällen vorbringen, wie die von Zeitungen, Autoren und Künstlern. Die Unternehmen sagen oft, dass sie nicht in der Lage seien, alles zu überwachen, was eine KI tut, und behaupten, dass sie die Nützlichkeit der Technologie beeinträchtigen oder sie ganz abschalten müssten, „wenn man uns für jede schädliche, verletzende Ausgabe haftbar machen würde, die sie produziert.“
„Ich denke, es ist ein wirklich schwieriges Problem, wie man verhindern kann, dass KI auf die Art und Weise halluziniert, die unbrauchbare Informationen, einschließlich falscher Aussagen, produziert“, sagte Grimmelmann. „Meta sieht sich in diesem Fall damit konfrontiert. Sie haben versucht, einige Korrekturen an ihren Modellen des Systems vorzunehmen, und Starbuck beschwerte sich, dass die Korrekturen nicht funktionierten.“
Als Starbuck die von Metas KI gemachten Behauptungen entdeckte, versuchte er, das Unternehmen auf den Fehler aufmerksam zu machen und dessen Hilfe zur Lösung des Problems in Anspruch zu nehmen. In der Beschwerde hieß es, dass Starbuck sich an die geschäftsführenden Führungskräfte und die Rechtsberater von Meta gewandt habe und sogar ihre KI nach dem fragte, was getan werden sollte, um die angeblich falschen Ausgaben anzugehen.
Der Klage zufolge bat er Meta dann, „die falschen Informationen zurückzuziehen, die Ursache des Fehlers zu untersuchen, Sicherheitsvorkehrungen und Qualitätskontrollprozesse zu implementieren, um ähnliche Schäden in Zukunft zu verhindern, und transparent mit allen Meta-KI-Benutzern über das Kommende zu kommunizieren, was getan werden würde.“
Die Klage behauptet, dass Meta nicht bereit war, diese Änderungen vorzunehmen oder „eine bedeutende Verantwortung für ihr Verhalten zu übernehmen.“
„Stattdessen ließ es zu, dass seine KI monatelang falsche Informationen über Herrn Starbuck verbreitete, nachdem es über die Falschheit informiert worden war, zu welchem Zeitpunkt es das Problem „behebte“, indem es Herrn Starbuck’s Namen aus seinen schriftlichen Antworten vollständig löschte“, heißt es in der Klage.
Joel Kaplan, Meta’s Chief Global Affairs Officer, reagierte auf ein Video, das Starbuck auf X gepostet hatte, in dem er die Klage darlegte, und nannte die Situation „inakzeptabel.“
„So sollte unsere KI eindeutig nicht funktionieren“, sagte Kaplan auf X. „Wir entschuldigen uns für die Ergebnisse, die sie über Sie geteilt hat, und dass die von uns eingeführte Lösung das zugrunde liegende Problem nicht behoben hat.“
Kaplan sagte, dass er mit dem Produktteam von Meta zusammenarbeitet, um „zu verstehen, wie dies passieren konnte und potenzielle Lösungen zu erkunden.“
Starbuck sagte, dass Metas KI neben der falschen Behauptung, er habe am Sturm auf das US-Kapitol teilgenommen, auch fälschlicherweise behauptet habe, er habe den Holocaust geleugnet und behauptet, er habe sich schuldig bekannt, obwohl er in seinem Leben noch nie „verhaftet oder wegen eines Verbrechens angeklagt“ worden sei.
Meta habe später seinen Namen „auf die schwarze Liste gesetzt“, sagte er und fügte hinzu, dass dieser Schritt das Problem nicht gelöst habe, weil Meta seinen Namen in Nachrichtenartikeln erwähne, was es den Benutzern ermögliche, dann nach weiteren Informationen über ihn zu fragen.
„Während ich heute das Ziel bin, könnte ein Kandidat, den Sie mögen, das nächste Ziel sein, und Lügen von Metas KI könnten Stimmen umdrehen, die die Wahl entscheiden“, sagte Starbuck auf X. „Sie könnten auch das nächste Ziel sein.“
Diese Geschichte wurde ursprünglich auf Fortune.com veröffentlicht.
„