„
Bleiben Sie informiert mit kostenlosen Updates
Melden Sie sich einfach für den US-Unternehmen myFT Digest an – direkt in Ihren Posteingang geliefert.
Es kann schwierig sein, einen Chatbot zu trainieren. Letzten Monat hat OpenAI ein Update für ChatGPT zurückgenommen, weil dessen „Standardpersönlichkeit“ zu schmeichlerisch war. (Vielleicht wurde die Trainingsdaten des Unternehmens aus Transkripten der Kabinettssitzungen des US-Präsidenten Donald Trump entnommen. . . .)
Das künstliche Intelligenzunternehmen wollte seinen Chatbot intuitiver machen, aber die Antworten auf Benutzeranfragen tendierten dazu, übermäßig unterstützend und unaufrichtig zu sein. „Schmeichlerische Interaktionen können unangenehm, beunruhigend und distress verursachen. Wir sind gescheitert und arbeiten daran, es richtig zu machen“, erklärte das Unternehmen in einem Blogbeitrag.
Die Reprogrammierung von schmeichlerischen Chatbots ist möglicherweise nicht das wichtigste Problem, dem sich OpenAI gegenübersieht, aber es passt zu seiner größten Herausforderung: eine vertrauenswürdige Persönlichkeit für das Unternehmen als Ganzes zu schaffen. In dieser Woche musste OpenAI sein neuestes geplantes Unternehmensupdate zurücknehmen, das darauf abzielte, das Unternehmen in eine gewinnorientierte Einrichtung umzuwandeln. Stattdessen wird es zu einer öffentlichen Nutzen-Gesellschaft übergehen und unter der Kontrolle eines gemeinnützigen Vorstands bleiben.
Das wird die strukturellen Spannungen im Kern von OpenAI nicht lösen. Noch wird es Elon Musk zufriedenstellen, einen der Mitbegründer des Unternehmens, der rechtliche Schritte gegen OpenAI unternimmt, weil es von seinem ursprünglichen Zweck abweicht. Beschleunigt das Unternehmen die Einführung von KI-Produkten, um seine finanziellen Unterstützer zufriedenzustellen? Oder verfolgt es einen eher überlegten wissenschaftlichen Ansatz, um seinen humanitären Absichten treu zu bleiben?
OpenAI wurde 2015 als gemeinnütziges Forschungslabor gegründet, das sich der Entwicklung von künstlicher allgemeiner Intelligenz zum Wohle der Menschheit verschrieben hat. Aber die Mission des Unternehmens – sowie die Definition von AGI – haben sich seitdem verschwommen.
Sam Altman, der CEO von OpenAI, erkannte schnell, dass das Unternehmen enorme Kapitalbeträge benötigte, um das erforderliche Forschungstalent und die benötigte Rechenleistung zu bezahlen, um an vorderster Front der KI-Forschung zu bleiben. Zu diesem Zweck gründete OpenAI 2019 eine gewinnorientierte Tochtergesellschaft. Der Durchbruchserfolg des Chatbots ChatGPT führte dazu, dass Investoren bereit waren, Geld in das Unternehmen zu investieren und OpenAI bei seinem letzten Fundraising mit 260 Mrd. USD zu bewerten. Mit 500 Mio. wöchentlichen Nutzern ist OpenAI zu einem „versehentlichen“ Riesen im Bereich des Verbraucherinternets geworden.
Altman, der 2023 von dem gemeinnützigen Vorstand gefeuert und wieder eingestellt wurde, sagt nun, dass er ein „Gehirn für die Welt“ bauen möchte, das möglicherweise Hunderte von Milliarden, wenn nicht Billionen Dollar an weiteren Investitionen erfordern könnte. Das einzige Problem bei seiner wilden Ambition ist – wie der Tech-Blogger Ed Zitron in zunehmend salzigen Ausdrücken schimpft – OpenAI hat noch kein tragfähiges Geschäftsmodell entwickelt. Im vergangenen Jahr gab das Unternehmen 9 Mrd. USD aus und verlor 5 Mrd. USD. Basieren seine finanzielle Bewertung auf einer Halluzination? Es wird einen zunehmenden Druck auf OpenAI von Investoren geben, seine Technologie schnell zu kommerzialisieren.
Darüber hinaus verschiebt sich die Definition von AGI ständig. Traditionell bezog sie sich auf den Punkt, an dem Maschinen den Menschen in einer Vielzahl von kognitiven Aufgaben übertreffen. Aber in einem kürzlichen Interview mit Ben Thompson von Stratechery gab Altman zu, dass der Begriff „fast vollständig entwertet“ worden sei. Er akzeptierte jedoch eine engere Definition von AGI als autonomer Kodierungsagent, der Software schreiben könnte, genauso gut wie jeder Mensch.
In dieser Hinsicht scheinen die großen KI-Unternehmen zu glauben, dass sie AGI nahe sind. Ein Hinweis darauf zeigt sich in ihren eigenen Einstellungspraktiken. Laut Zeki Data haben die Top 15 US-amerikanischen KI-Unternehmen Software-Ingenieure in einem Tempo von bis zu 3.000 pro Monat eingestellt und insgesamt 500.000 zwischen 2011 und 2024 rekrutiert. Aber in letzter Zeit hat sich ihre monatliche Nettostellenrate auf null reduziert, da diese Unternehmen erwarten, dass KI-Agenten viele der gleichen Aufgaben erledigen können.
Ein kürzlich veröffentlichtes Forschungspapier von Google DeepMind, das auch darauf abzielt, AGI zu entwickeln, hat vier Hauptrisiken von immer autonomer werdenden KI-Modellen hervorgehoben: Missbrauch durch böswillige Akteure; Missausrichtung, wenn ein KI-System unbeabsichtigte Dinge tut; Fehler, die unbeabsichtigten Schaden verursachen; und Multi-Agenten-Risiken, wenn unvorhersehbare Interaktionen zwischen KI-Systemen schlechte Ergebnisse produzieren. Dies sind alles geistig herausfordernde Herausforderungen, die einige potenziell katastrophale Risiken bergen und möglicherweise gemeinsame Lösungen erfordern. Je leistungsfähiger KI-Modelle werden, desto vorsichtiger sollten Entwickler sein, wenn sie sie einsetzen.
Wie frontier KI-Unternehmen regiert werden, ist daher nicht nur eine Angelegenheit für Unternehmensvorstände und Investoren, sondern für uns alle. OpenAI ist in dieser Hinsicht immer noch besorgniserregend mangelhaft, mit widersprüchlichen Impulsen. Der Umgang mit Schmeichelei wird das geringste seiner Probleme sein, wenn wir AGI näher kommen, wie auch immer man es definiert.
„