KI-Modelle können riskant sein, wenn sie betrügerischen Elementen überlassen werden

Das Handelsministerium unter der Biden-Regierung strebt eine neue Compliance-Initiative an, um den Export von Open- oder Closed-Source-KI-Modellen weiter einzuschränken. Die Initiative stellt einen Versuch dar, die Interessen der USA und die Technologie der künstlichen Intelligenz vor Russland und China zu schützen, und wird die in den letzten zwei Jahren ergriffenen Maßnahmen ergänzen, um den chinesischen Zugang zu den neuesten fortschrittlichen Computerchips zu blockieren.

Die Bemühungen der USA bestehen darin, strengere Schutzbarrieren um die Kernsoftware der großen Sprachmodelle zu errichten, die Apps wie ChatGPT antreiben, berichtete Reuters unter Berufung auf drei mit der Angelegenheit vertraute Quellen. Während die Nachrichtenagentur angibt, dass private und staatliche Forscher besorgt seien, dass US-Gegner die Technologie für aggressive Cyberangriffe nutzen und biologische Waffen entwickeln könnten, lehnte die chinesische Botschaft diesen Schritt ab und bezeichnete ihn als einseitiges, wirtschaftliches Mobbing. Zwang.

Deepfakes sind eine tödliche Desinformationswaffe

Die Bedrohungen, die die Vereinigten Staaten befürchten, sind vielfältig und können von staatlich unterstützten nichtstaatlichen Akteuren ausgenutzt werden. Deepfakes können als wirksame Propagandawaffe eingesetzt werden, da es sich dabei um realistische, aber gefälschte Videos handelt, die mit Tools der künstlichen Intelligenz erstellt wurden.

Solche Videos tauchen bereits in den sozialen Medien auf. Zwar gibt es solche Multimedia-Inhalte schon seit einigen Jahren, die mit Animations- und Rendering-Software entwickelt wurden, aber generative KI-Tools haben es für jedermann leicht gemacht, sie zu produzieren, und betrügerische Akteure können sie einfacher denn je ausnutzen, um die öffentliche Meinung zu sensiblen Themen zu manipulieren. , insbesondere im Wahlkampf.

Social-Media-Plattformen wie YouTube, Facebook und Twitter haben bereits Schritte unternommen, um Deepfakes zu reduzieren, aber auch die Taktiken für deren Entwicklung und Veröffentlichung ändern sich mit der Weiterentwicklung der Technologie. Derzeit können Tools von Unternehmen wie Microsoft und OpenAI verwendet werden, um Inhalte zur Verbreitung von Fehlinformationen zu erstellen.

Laut Forschern von Rand Corporation und Gryphon Scientific besteht eine viel größere Sorge darin, dass KI-Modelle Informationen für die Entwicklung biologischer Waffen preisgeben könnten, und US-Geheimdienste, akademische Experten und Denkfabriken befürchten, dass künstliche Intelligenz in die Hände geraten könnte von Kriminellen. Elemente.

Die Gryphon-Studie hat herausgefunden, wie LLMs Fach- und Doktorwissen hervorbringen können, das bei der Entwicklung von Viren mit pandemischen Fähigkeiten helfen kann, und wie dieses von nichtstaatlichen Akteuren als biologische Waffen genutzt werden kann.

Cyber-Angriffe werden mit Modellen der künstlichen Intelligenz verstärkt

Das Department of Homeland Security hat außerdem Bedenken geäußert, dass Cyberangriffe auf kritische Infrastrukturen wie Eisenbahnen und Pipelines mithilfe künstlicher Intelligenz durchgeführt werden könnten, indem neue Tools entwickelt werden, mit denen größere, komplexere Cyberangriffe schneller gestartet werden können.

Die Agentur sagte weiter, dass China Software für künstliche Intelligenz entwickelt, die für Malware-Angriffe verwendet werden kann, und auch an Technologien für künstliche Intelligenz arbeitet, die möglicherweise die Cyberabwehr des Landes sabotieren könnten.

Funktionen und Einheiten, die das Ökosystem der Kommunistischen Partei Chinas ausmachen. Quelle: Microsoft .

Bereits im Februar veröffentlichte Microsoft einen Bericht, in dem es feststellte, dass es an Hacking-Aktivitäten beteiligte Cyber-Gruppen identifiziert habe, die ihre Hacking-Kampagnen mithilfe von LLM verfeinern und Verbindungen zum militärischen Geheimdienst Russlands, der nordkoreanischen und der chinesischen Regierung haben. und die iranischen Revolutionsgarden.

Das Unternehmen kündigte ein Verbot für staatlich finanzierte Cyber-Gruppen an, seine Produkte und Dienste für künstliche Intelligenz zu nutzen. Am Mittwoch schlug eine Gruppe von Staatsmännern einen Gesetzentwurf vor, der der Biden-Regierung dabei helfen soll, Exportkontrollen für Modelle künstlicher Intelligenz einzuführen, um zu verhindern, dass sie potenziellen Gegnern ausgesetzt werden.

Experten zu diesem Thema sagten, Washington versuche, übertriebene Vorschriften zu vermeiden, die Innovationen ersticken könnten, und versuche gleichzeitig, Innovationen sowie mögliche Lösungen für die mit künstlicher Intelligenz verbundenen Risiken zu fördern. Sie wiesen auch darauf hin, dass die Durchsetzung strenger Vorschriften durch eine strikte Regulierung des Fortschritts der künstlichen Intelligenz ein Vakuum für ausländische Wettbewerber schaffen und sich negativ auf die Bereiche Infrastruktur, nationale Sicherheit und Arzneimittelforschung auswirken würde.