Der Deepfake-Debunker von OpenAI wird gegen Fehlinformationen nicht ausreichen. Nyt melden

Der Deepfake-Debunker von OpenAI wird gegen Fehlinformationen nicht ausreichen. Nyt melden

OpenAI hat einen Detektor zur Identifizierung von mit künstlicher Intelligenz erstellten Inhalten angekündigt, der dazu beitragen kann, das Problem von Deepfakes einzudämmen, es aber nicht lösen wird. Der Artikel der New York Times

Da Experten warnen, dass KI-generierte Bilder, Audio- und Videoinhalte die Wahlen im Herbst beeinflussen könnten, veröffentlicht OpenAI ein Tool zur Erkennung von Inhalten, die von seinem beliebten Bildgenerator DALL-E erstellt wurden. Das führende Start-up für künstliche Intelligenz erkennt jedoch, dass dieses Tool nur einen kleinen Teil dessen darstellt, was in den kommenden Monaten und Jahren zur Bekämpfung sogenannter Deepfakes benötigt wird – schreibt die New York Times .

STÄRKEN UND SCHWÄCHEN DES DEEPFAKE-DETEKTORS

Am Dienstag gab OpenAI bekannt, dass es seinen neuen Deepfake-Detektor mit einer kleinen Gruppe von Fehlinformationsforschern teilen wird, damit diese das Tool in realen Situationen testen und dabei helfen können, Möglichkeiten zur Verbesserung zu finden.

„Dies soll neue Forschungsergebnisse anstoßen“, sagte Sandhini Agarwal, ein OpenAI-Sicherheits- und Politikforscher. „Es ist wirklich notwendig.“

OpenAI sagte, sein neuer Detektor sei in der Lage, 98,8 % der von DALL-E 3, der neuesten Version seines Bildgenerators, erstellten Bilder korrekt zu identifizieren. Das Unternehmen gab jedoch an, dass das Tool nicht dafür ausgelegt sei, Bilder zu erkennen, die von anderen beliebten Generatoren wie Midjourney und Stability erzeugt wurden.

Da diese Art von Deepfake-Detektor wahrscheinlichkeitsbasiert ist, kann sie niemals perfekt sein. Wie viele andere Unternehmen, gemeinnützige Organisationen und akademische Labore arbeitet OpenAI daher daran, das Problem auf andere Weise zu bekämpfen.

Authentizitätsstempel

Wie die Technologiegiganten Google und Meta ist das Unternehmen dem Lenkungsausschuss der Coalition for Content Provenance and Authenticity (C2PA) beigetreten, einer Initiative zur Entwicklung von Referenzen für digitale Inhalte. Der C2PA-Standard ist eine Art „Lebensmitteletikett“ für Bilder, Videos, Audioclips und andere Dateien, das angibt, wann und wie sie produziert oder verändert wurden, auch mit KI.

OpenAI sagte außerdem, dass es Möglichkeiten entwickelt, KI-generierte Geräusche mit einem „Wasserzeichen“ zu versehen, damit sie im jeweiligen Moment leicht identifiziert werden können. Das Unternehmen hofft, die Entfernung dieser Wasserzeichen zu erschweren.

Eine (fast) unmögliche Mission

Mit der Unterstützung von Unternehmen wie OpenAI, Google und Meta steht die KI-Branche zunehmend unter Druck, für die von ihren Produkten produzierten Inhalte Rechenschaft abzulegen. Experten fordern die Branche auf, zu verhindern, dass Benutzer irreführendes und schädliches Material generieren, und Möglichkeiten zur Rückverfolgung von Herkunft und Verbreitung anzubieten.

In einem Jahr, das von wichtigen Wahlen auf der ganzen Welt geprägt ist, werden die Rufe nach Methoden zur Rückverfolgung der Herkunft von KI-Inhalten immer verzweifelter. In den letzten Monaten haben Audio und Bilder bereits politische Kampagnen und Abstimmungen in Ländern wie der Slowakei, Taiwan und Indien beeinflusst.

Der neue Deepfake-Detektor von OpenAI kann helfen, das Problem einzudämmen, aber er wird es nicht lösen. Wie Agarwal sagte: Im Kampf gegen Deepfakes „gibt es kein Allheilmittel.“

(Auszug aus der ausländischen Presseschau, herausgegeben von eprcomunicazione )


Dies ist eine Übersetzung eines Artikels, der am Sat, 18 May 2024 05:43:44 +0000 im italienischen Blog Start Magazine unter der URL https://www.startmag.it/innovazione/lo-smaschera-deepfake-di-openai-non-bastera-contro-la-disinformazione/ veröffentlicht wurde.