Warum die US Space Force den Einsatz von KI bei ChatGpt aussetzt

Warum die US Space Force den Einsatz von KI bei ChatGpt aussetzt

In den Vereinigten Staaten hat die US Space Force aufgrund von Bedenken hinsichtlich der Datensicherheit vorübergehend aufgehört, webbasierte generative KI-Tools wie ChatGPT für ihre Belegschaft zu nutzen.

Die US Space Force stellt den Einsatz webbasierter generativer KI-Tools wie ChatGPT ein.

Die 6. US-Armee traf diese Entscheidung aufgrund von Bedenken hinsichtlich der Datensicherheit.

Einem von Reuters eingesehenen Memo zufolge verbietet ein Memorandum vom 29. September, das an die Guardians, wie die Space Force ihre Mitarbeiter nennt, gerichtet ist, Mitarbeitern die Verwendung solcher künstlicher Intelligenzwerkzeuge, einschließlich großer Sprachmodelle, auf Computern von Regierungen, bis sie eine formelle Genehmigung von der Regierung erhalten das Chief Technology and Innovation Office des Dienstes. In dem Hinweis heißt es, dass sie für den Einsatz in Regierungssystemen „nicht zugelassen“ seien, es sei denn, sie seien ausdrücklich genehmigt.

Ein Sprecher der Air Force bestätigte das vorübergehende Verbot, über das erstmals Bloomberg berichtete.

Es ist nicht das erste Mal, dass die amerikanische Verteidigung solche Befürchtungen äußert. Generative KI ist in den letzten Monaten seit ChatGPT von OpenAI unglaublich populär geworden, das im vergangenen November innerhalb einer Woche nach seiner Einführung mehr als 1 Million Nutzer verzeichnete. Allerdings wirft diese Technologie eine Reihe von Zweifeln ethischer, regulatorischer und wirtschaftlicher Art auf, und zwar aufgrund der potenziellen Risiken im Zusammenhang mit der Verletzung des Urheberrechts und der Privatsphäre, einer möglichen betrügerischen Nutzung oder zu Desinformationszwecken bis hin zu den strukturellen Auswirkungen auf Beschäftigung, die sich in zahlreichen Wirtschaftszweigen bereits abzeichnet.

Im vergangenen Mai sagte sogar der Leiter der Abteilung für künstliche Intelligenz im Pentagon, er habe „zu Tode Angst “ vor dem Potenzial von Technologien wie ChatGpt. Im August hat das Pentagon eine Task Force für generative künstliche Intelligenz ins Leben gerufen, um Anwendungsfälle für LLMs (große Sprachmodelle) und deren Analyse und Integration innerhalb des Verteidigungsministeriums zu untersuchen.

Alle Details.

Der Schritt der amerikanischen Weltraumstreitkräfte zur generativen KI bei CHATGPT

Daher vorübergehendes Verbot des Einsatzes generativer KI-Tools „aufgrund der Risiken der Datenaggregation“ für Mitarbeiter der Space Force.

Lisa Costa, Chief Technology and Innovation Officer der Space Force, sagte in dem Memo, dass die Technologie „zweifellos unsere Belegschaft revolutionieren und die Fähigkeit der Guardians verbessern wird, schnell zu operieren“.

„Eine strategische Pause beim Einsatz generativer KI und großer Sprachmodelle innerhalb der U.S. Space Force wird eingeführt, während wir den besten Weg zur Integration dieser Fähigkeiten in die Guardian-Rollen und die USSF-Mission ermitteln“, sagte er, Sprecherin der Air Force, Tanya Downsworth Stellungnahme.

„Dies ist eine vorübergehende Maßnahme zum Schutz der Daten unseres Dienstes und der Guardians“, fügte er hinzu.

STRATEGISCHE PAUSE

Die strategische Pause besteht also darin, das Personal und die Daten der Space Force zu schützen und gleichzeitig zu entscheiden, wie die Fähigkeit zur Unterstützung von Missionen und Wächtern integriert werden kann.

Tatsächlich sagte Costa in dem Memo, dass sein Büro mit anderen Pentagon-Büros eine Task Force für generative künstliche Intelligenz gebildet habe, um darüber nachzudenken, wie die Technologie auf „verantwortungsvolle und strategische Weise“ eingesetzt werden könne.

In der Mitteilung heißt es außerdem, dass Costa damit rechnet, innerhalb von 30 Tagen neue Richtlinien zu veröffentlichen.

Die ersten Konsequenzen

Die ersten Reaktionen der im Bereich Künstliche Intelligenz aktiven Tech-Branche lassen nicht lange auf sich warten. Wie das von Nicolas Chaillan, Gründer und CEO von Ask Sage, einer sicheren Plattform für generative künstliche Intelligenz, die mit mehreren LLM-Modellen funktioniert, darunter denen von Microsoft und Google, die vom Pentagon verwendet werden.

Laut Chaillain hat die Entscheidung der Space Force bereits Auswirkungen auf mindestens 500 Menschen, die Ask Sage nutzen, berichtet Bloomberg .

Zusätzlich zu Kunden in der gesamten Verteidigungsindustrie sagte Chaillan der Nachrichtenagentur, dass mehr als 10.000 Kunden im übrigen Verteidigungsministerium, darunter 6.500 in der Luftwaffe, immer noch die Software seines Unternehmens nutzen. Einige Benutzer des Verteidigungsministeriums zahlen sogar die monatliche Gebühr von 30 US-Dollar aus eigener Tasche, sagte er und fügte hinzu, dass ihnen dies die Belastung beim Verfassen von Berichten erleichtere.

Dann kritisierte der Gründer von Ask Sage die Entscheidung der Space Force, den Einsatz generativer künstlicher Intelligenz auszusetzen, insbesondere da das Verteidigungsministerium eine beschleunigte Einführung künstlicher Intelligenz gefordert hat. „Das wird uns eindeutig um Jahre hinter China zurückwerfen“, schrieb er im September in einer E-Mail an Costa und mehrere hochrangige Verteidigungsbeamte, in der er argumentierte, dass sein Dienst bereits auf der „Whitelist“ und für den Einsatz durch die Luftwaffe zugelassen worden sei zur von Bloomberg geprüften Korrespondenz.


Dies ist eine Übersetzung eines Artikels, der am Thu, 12 Oct 2023 12:09:39 +0000 im italienischen Blog Start Magazine unter der URL https://www.startmag.it/innovazione/perche-la-us-space-force-sospende-lutilizzo-di-ia-alla-chatgpt/ veröffentlicht wurde.