„
Die Verwendung von KI zur Erstellung von Videomaterial wurde sowohl gefeiert als auch verurteilt, da Deepfakes das Internet verunreinigt haben. Die Technologie hat sich jedoch zu etwas entwickelt, das vielfältige kommerzielle und Verbrauchsanwendungsfälle bietet. Die Herausforderung besteht darin, die Schranken der Technologie aufrechtzuerhalten, sagt Daniel Hulme, CEO von Satalia.
Wir alle erinnern uns an die berüchtigten Deepfakes von Taylor Swift, Präsident Barack Obama und Volodymyr Zelensky. Diese Videos zeigten die Kraft, das Mysterium und die dunkle Seite der Nutzung von künstlicher Intelligenz.
Aber KI hat auch echte Anwendungsfälle bei der Erstellung von ansprechendem Videomaterial für Unternehmen und Verbraucher, sagten Experten auf der Brainstorm AI-Konferenz von Fortune in London, Großbritannien, am Mittwoch.
„KI ermöglicht es uns, Inhalte unglaublich schnell zu erstellen, aber man muss die richtigen Schranken und Strukturen haben, um die Risiken zu minimieren“, sagte Daniel Hulme, CEO von Satalia, dem Enterprise-KI-Arm des britischen Kommunikations-, Werbe-, Public-Relations- und Technologieunternehmens WPP. „Wir haben die Verantwortung sicherzustellen, dass wir diese Technologien auf die richtige und verantwortungsbewusste Weise nutzen.“
Ein Weg, KI verantwortungsbewusst einzusetzen, besteht darin, weiterhin die Aufsicht von Menschen über die Technologie zu haben. Obwohl KI an einen Punkt gelangen könnte, an dem Agenten neue Agenten trainieren könnten, könnte dies zu Voreingenommenheit führen und letztendlich dazu führen, dass die Technologie versagt, sagten Experten. Außerdem sind Menschen zu diesem Zeitpunkt immer noch viel anpassungsfähiger als KI, sagte Peter Hill, Chief Technology Officer von Synthesia, einer KI-Video-Kommunikationsplattform.
„Eine der Dinge, in denen Menschen unglaublich sind, ist die Anpassungsfähigkeit. Wir sind widerstandsfähig. Wir sind robust“, sagte Hill.
Statt die traditionelle Definition von KI zu verwenden – Computer dazu zu bringen, Dinge zu tun, die Menschen tun können, was Hill für eine schwache Definition hält – sollte die Technologie zielgerichtet sein und adaptives Verhalten aufweisen, damit sie sich in einer sich schnell verändernden Welt anpassen kann.
„Wir sehen tendenziell keine KI-Systeme, die sehr anpassungsfähig sind“, sagte Hill. „Ich denke, das ist die neue und nächste Gelegenheit. Wenn man sich die Fähigkeit der Menschen ansieht, Kreativität zu nutzen, um sich an eine sich schnell verändernde Welt anzupassen, denke ich, dass das etwas ist, was uns ziemlich einzigartig macht.“
Dennoch zeigte Hill dem Publikum ein KI-generiertes Video von sich selbst, um zu veranschaulichen, wie fortgeschritten die Technologie geworden war. Der Avatar sah ihm fast identisch und hatte ähnliche Manierismen und Stimme. Die meisten Synthesia-Kunden nutzen die Technologieplattform, um Schulungs- und Bildungsvideos für Arbeitsplätze zu erstellen, damit sie nicht immer mit dem gleichen Maß an öffentlicher Aufmerksamkeit konfrontiert werden, die mit KI-generiertem Videomaterial einhergehen kann.
„Viele Leute werden ihre Unternehmensmarken darauf setzen, und sie möchten nicht inmitten von etwas Unbeabsichtigtem oder anderweitig Illegalem sein“, sagte Hill. „Es ist unsere Verantwortung sicherzustellen, dass ihre Marke in bestem Licht präsentiert wird.“
WPP und Satalia müssen dagegen bewusster sein, wenn sie KI zur Erstellung von Videomaterial einsetzen. Während des Panels teilte Hulme den Jen-AI-Werbespot von VML, einem WPP-Unternehmen. Viele Menschen wurden von dem Charakter im Werbespot getäuscht, der aussah wie J-Lo, aber tatsächlich nur ein KI-Avatar war.
https://www.youtube.com/watch?v=-LAHgWC93cw
Das Unternehmen von Hulme stellt sicher, dass es die richtigen Governance-Strukturen hat, damit Benutzer Urheberrechtsverletzungen vermeiden können, sagte er. Ihre Rechtsberater sind führend darin, wie sie sicherstellen, dass die Menschen die Technologie sicher und verantwortungsbewusst nutzen, fügte er hinzu.
Und obwohl bei der Verwendung von KI viele Dinge schiefgehen können, sagte Hulme, dass wir uns eigentlich davor fürchten sollten, wenn „KI sehr richtig wird“. Er verwendete das Beispiel von „Homophilie“, einer menschlichen Voreingenommenheit, nach der wir dazu neigen, Dinge zu mögen und zu vertrauen, die uns ähnlich sehen und klingen.
„Wenn wir KI loslassen, um Anzeigen zu optimieren, könnten wir in einer Welt landen, in der Sie an Sie verkaufen. Das mag für das Geschäft sehr gut sein, könnte aber Voreingenommenheit, Bigotterie und soziale Blasen verstärken“, sagte Hulme. „Wir haben die Verantwortung sicherzustellen, dass wir diese Technologien auf die richtige und verantwortungsbewusste Weise einsetzen.“
Diese Geschichte wurde ursprünglich auf Fortune.com veröffentlicht.
„