Wird Metas Label „made by AI“ die Deepfakes-Flut eindämmen können?

Wird Metas Label „made by AI“ die Deepfakes-Flut eindämmen können?

Meta beginnt mit der Berichterstattung auf Facebook, Instagram und Threads, wenn ein Bild mit KI erstellt wurde. Auch Google hat die gleiche Ankündigung gemacht, aber der Kampf gegen Deepfakes scheint eine unmögliche Mission zu sein. Fakten und Kommentare

Wer hat nicht einen Moment lang geglaubt (oder wollte in manchen Fällen glauben), dass die Fotos von Papst Franziskus in einer auffälligen weißen Daunenjacke oder die von der Verhaftung von Donald Trump und Wladimir Putin wahr sind? Mit der rasanten Entwicklung der künstlichen Intelligenz (KI) und ihrer Werkzeuge in den letzten Monaten wird es immer schwieriger, Realität von Fiktion zu unterscheiden, insbesondere in den sozialen Medien, dem bevorzugten Medium für die Verbreitung von Deepfakes, also Fotos, Videos und Audiodateien, die mit Computersoftware erstellt wurden. KI das sieht echt aus.

Mark Zuckerbergs Meta kündigte daraufhin an, dass in den kommenden Monaten auf Facebook, Instagram und Threads Markierungen erscheinen werden, die anzeigen, ob ein Bild mit KI erstellt wurde. Letztes Jahr kündigte Google auch an, die gleichen Maßnahmen für YouTube und seine anderen Plattformen zu ergreifen.

Experten begrüßen die Initiative zwar, sind jedoch skeptisch hinsichtlich ihrer Wirksamkeit.

META UND DIE „MADE BY AI“-LABELS

Während die Grenze zwischen Realität und Fiktion im Internet zunehmend verschwimmt, gab Meta gestern bekannt , dass die mit KI erzeugten Bilder in seinen sozialen Netzwerken dank eines Labels mit der Aufschrift „made by AI“ erkennbar sein werden. Ziel ist es, Verwirrung und die Verbreitung von Deepfakes unter den Nutzern über Facebook, Instagram und Threads zu vermeiden. Bezüglich der Inhalte, die auf WhatsApp geteilt werden können, ist jedoch noch nicht bekannt, was passieren wird.

Die technischen Standards, nach denen Zuckerbergs Unternehmen arbeitet, könnten dann auch auf mit KI-Tools erstellte Videos und Audiodaten ausgeweitet werden, obwohl es in diesen Fällen laut Nick Clegg, dem Präsidenten des Unternehmens für globale Angelegenheiten, „komplizierter“ ist . Meta sagte dann, dass man damit beginnen werde, Benutzer aufzufordern, ihre KI-Audio- und Videoinhalte zu kennzeichnen, und nicht näher bezeichnete Strafen verhängen werde, wenn sie dies nicht tun. Clegg erinnerte jedoch daran, dass es keinen gültigen Mechanismus zur Kennzeichnung des geschriebenen Textes gibt, der von Tools wie ChatGpt generiert wird.

Die ehrgeizige Absicht von Meta, das bereits alle mit seinen eigenen Tools für künstliche Intelligenz generierten Inhalte kennzeichnet, besteht darin, die Überwachung auf Bilder auszuweiten, die von den KI-Diensten anderer Unternehmen wie OpenAI, Microsoft, Adobe, Midjourney, Shutterstock und Google generiert wurden. Und hier zeigen sich viele Experten skeptisch.

WEIL ES SCHWIERIG SEIN WIRD, DEEPFAKES ZU BEKÄMPFEN

In einer Zeit, in der es dank einfacher KI-Software sehr einfach ist, falsche Inhalte zu generieren, scheint es sehr schwierig zu sein, einen reißenden Fluss einzudämmen. Darüber hinaus ist 2024 ein Wahljahr, und wenn die US-Präsidentschaftswahlen 2020 und der anschließende Angriff auf das Kapitol nur einen Vorgeschmack auf die Bedeutung der sozialen Medien bei der Beeinflussung oder Fehlinformation der Menschen waren, ist es nur vorstellbar, was mit den heutigen Tools passieren könnte und die riesigen Fortschritte, die die KI in sehr kurzer Zeit gemacht hat. „Ich erwarte einen Tsunami an Fehlinformationen“, sagte Oren Etzioni, Experte für künstliche Intelligenz und emeritierter Professor an der University of Washington. „Ich kann es nicht beweisen. Ich hoffe, dass mir das Gegenteil bewiesen wird. Aber die Zutaten sind da und ich habe totale Angst.“

Hinzu kommen Risiken für die Privatsphäre und den Bezug zum Einzelnen, wie im Fall der im Internet verbreiteten Deepfake-Pornografiebilder von Taylor Swift , von denen angenommen wird, dass sie durch Diffusionsmodelle wie Stable Diffusion, Midjourney oder Dall generiert wurden. E, dessen Ursprung jedoch nicht ermittelt werden konnte.

Obwohl Metas Neuigkeiten mit Begeisterung aufgenommen wurden, sind sie nicht ganz beruhigt. Wie Gili Vidan von der Cornell University sagte , ist das System möglicherweise „ziemlich effektiv“ bei der Kennzeichnung eines Großteils der KI-generierten Inhalte, die mit kommerziellen Tools erstellt wurden, aber es wird wahrscheinlich nicht alles erfassen. Selbst für Verbraucher besteht laut Quartz ein potenzielles Problem darin, dass Technologieplattformen KI-generierte Inhalte von einer Reihe großer kommerzieller Anbieter besser identifizieren können, Inhalte, die mit anderen Tools erstellt wurden, jedoch nicht mehr identifizieren können.


Dies ist eine Übersetzung eines Artikels, der am Wed, 07 Feb 2024 10:20:33 +0000 im italienischen Blog Start Magazine unter der URL https://www.startmag.it/innovazione/letichetta-made-by-ia-di-meta-riuscira-ad-arginare-il-mare-magnum-di-deepfake/ veröffentlicht wurde.