Der ganze Aufruhr innerhalb von OpenAI, Google DeepMind und Anthropic gegen KI

Der ganze Aufruhr innerhalb von OpenAI, Google DeepMind und Anthropic gegen KI

Die Entwicklung der künstlichen Intelligenz birgt „ernsthafte Risiken“. Das sagen ehemalige, aber auch aktuelle Mitarbeiter von OpenAI, Google DeepMind und Anthropic in einem offenen Brief, auch unterstützt von den Paten der KI. Alle Details

Ein neuer Appell warnt vor den „ernsthaften Risiken“ der Entwicklung der künstlichen Intelligenz (KI). Diesmal handelt es sich um einen offenen Brief einer Gruppe ehemaliger, aber auch aktueller Mitarbeiter der wichtigsten KI-Unternehmen: OpenAI, Google DeepMind und Anthropic.

Insbesondere 13 Unterzeichner, von denen einige anonym bleiben wollten, prangern KI-Unternehmen mangelnde Aufsicht und Transparenz an und fordern zudem einen stärkeren Schutz für Whistleblower, also diejenigen, die illegale Aktivitäten anprangern oder melden.

Welche Risiken (einschließlich der Ausrottung des Menschen) birgt die KI?

In ihrem Appell erkennen die Experten das Potenzial künstlicher Intelligenz an, „beispiellose Vorteile für die Menschheit“ zu generieren, sagen aber auch, dass sie sich der „schwerwiegenden Risiken dieser Technologien“ bewusst seien.

„Diese – lesen wir in dem Brief – reichen von der weiteren Verschärfung bestehender Ungleichheiten über Manipulation und Desinformation bis hin zum Kontrollverlust autonomer KI-Systeme, der zum Aussterben der Menschheit führen könnte.“ KI-Unternehmen selbst haben diese Risiken erkannt, ebenso wie Regierungen auf der ganzen Welt und andere KI-Experten.“

Die Möglichkeit, dass KI zum Aussterben der Menschheit führen wird, wurde in dem Dokument bereits Ende 2023 von einer Gruppe von Forschern der Universitäten Oxford und Berkeley gemeldet, die 2.778 Experten aus dem Technologiesektor in eine Studie einbezog, um zu beweisen, dass dies verständlich ist die Auswirkungen von KI auf die Gesellschaft. Fast die Hälfte von ihnen gab an, dass die Wahrscheinlichkeit, dass KI so unkontrollierbar wird, dass sie zum Aussterben der Menschheit führt, bei 5 % liegt.

Die Vorwürfe gegen KI-Unternehmen

Aktuelle und ehemalige Mitarbeiter von OpenAI, Google DeepMind und Anthropic hoffen, dass diese Risiken mit ausreichender Anleitung durch die wissenschaftliche Gemeinschaft, politische Entscheidungsträger und die Öffentlichkeit angemessen gemindert werden können. Sie glauben jedoch, dass „KI-Unternehmen starke finanzielle Anreize haben, sich einer wirksamen Aufsicht zu entziehen“ und glauben nicht, dass maßgeschneiderte Corporate-Governance-Strukturen „ausreichen, um diese Situation zu ändern“.

Tatsächlich verfügen die großen KI-Unternehmen dem Brief zufolge „über umfangreiche nichtöffentliche Informationen über die Fähigkeiten und Grenzen ihrer Systeme, die Angemessenheit ihrer Schutzmaßnahmen und das Ausmaß des Risikos verschiedener Arten von Schäden“, aber „derzeit Sie haben nur eine schwache Verpflichtung, einige dieser Informationen an Regierungen weiterzugeben, aber nicht an die Zivilgesellschaft.“

Aus diesem Grund sind Experten der Meinung, dass es nicht darauf ankommt, dass jeder freiwillig solche Informationen weitergibt.

Whistleblower als Geisel genommen

Aus diesem Grund seien die wenigen Personen, die das Unternehmen informieren könnten, so heißt es in dem Brief, aktuelle und ehemalige Mitarbeiter, die sich jedoch weitreichenden Vertraulichkeitsvereinbarungen unterwerfen müssten, die es ihnen verbieten, ihre Bedenken zu äußern, außer gegenüber den Unternehmen selbst, die jedoch möchte diese Probleme möglicherweise nicht ansprechen.

In diesem Zusammenhang fordern sie daher einen stärkeren Schutz für Hinweisgeber, die „verschiedene Formen von Vergeltung“ befürchten müssen.

Daniel Kokotajlo, einer der sieben Autoren des Briefes, ist beispielsweise ein Forscher, der OpenAI letzten Monatverlassen hat , „nachdem er das Vertrauen verloren hatte, dass es sich verantwortungsbewusst verhalten würde“. Die Entscheidung, die Vertraulichkeitsvereinbarung nicht einzuhalten, um das Unternehmen offen zu kritisieren, habe ihn jedoch sein Kapital gekostet, wie er auf seiner Website sagte.

OPENAIS ANTWORT

Wie der Guardian berichtet, verteidigte OpenAI seine Praktiken in einer Erklärung und sagte, dass es Möglichkeiten wie eine Telefonleitung zur Verfügung habe, um Probleme innerhalb des Unternehmens zu melden, und dass es keine neuen Technologien herausbringe, bis es angemessene Garantien gäbe. Google hat jedoch noch nicht auf eine Anfrage nach einem Kommentar geantwortet.

Allerdings berichtete Vox letzte Woche, dass OpenAI Mitarbeiter, die das Unternehmen verlassen, dazu zwingt, äußerst restriktive Geheimhaltungs- und Nicht-Opt-out-Dokumente zu unterzeichnen, da sie sonst das Risiko eingehen, alle erworbenen Aktien zu verlieren. Sam Altman entschuldigte sich später im Anschluss an die Nachricht und sagte, er werde seine Abfindungsverfahren ändern.

ZUFÄLLIGER ZEITPUNKT?

Der Guardian stellt dann fest, dass der Brief kommt, nachdem zwei prominente OpenAI-Mitarbeiter, Mitbegründer Ilya Sutskever und wichtiger Sicherheitsforscher Jan Leike , letzten Monat aus dem Unternehmen ausgeschieden sind. Leike sagte nach seinem Ausscheiden aus dem Amt, dass OpenAI seine Sicherheitskultur zugunsten „glänzender Produkte“ aufgegeben habe.

Laut der britischen Zeitung heißt es in dem Schreiben auch, dass Unternehmen nicht dazu verpflichtet seien, ihre Geschäftstätigkeit transparent zu machen. Es greift einige von Leikes Aussagen auf und hat die Zustimmung der „Paten“ der KI – Yoshua Bengio und Geoffrey Hinton – sowie des Informatikers Stuart Russell erhalten , der zur instrumentellen Forschung beitrug, die zur Entwicklung der modernen KI führte, und später zu einem ihrer größten Kritiker wurde.


Dies ist eine Übersetzung eines Artikels, der am Thu, 06 Jun 2024 04:49:41 +0000 im italienischen Blog Start Magazine unter der URL https://www.startmag.it/innovazione/ex-attuali-dipendenti-di-openai-google-deepmind-e-anthropic-contro-rischi-intelligenza-artificiale/ veröffentlicht wurde.