Sovereign AI·Americas

US-Behörde prüft KI-Modelle auf Sicherheitsrisiken, noch bevor sie veröffentlicht werden

Global AI Watch · Redaktion··4 Min. Lesezeit
US-Behörde prüft KI-Modelle auf Sicherheitsrisiken, noch bevor sie veröffentlicht werden
Redaktioneller Einblick

This expansion of AI security assessments is the US's most significant move since the AI Security Initiative in 2023, aiming to set global safety standards by 2026.

Kernpunkte

  • 1Das US-Handelsministerium weitet seine KI-Sicherheitsprüfungen aus: Nach Anthropic und OpenAI haben nun auch Google Deepmind, Microsoft und xAI Vereinbarungen mit dem Center for AI Standards and Innovation geschlossen.
  • 2Die Unternehmen stellen dabei auch Modelle mit reduzierten Schutzmaßnahmen für Tests in geheimen Umgebungen bereit – vor dem Hintergrund wachsender Cybersecurity-Risiken und des Tech-Wettrennens mit China.
  • 3Der Artikel US-Behörde prüft KI-Modelle auf Sicherheitsrisiken, noch bevor sie veröffentlicht werden erschien zuerst auf The Decoder.

Das US-Handelsministerium weitet seine KI-Sicherheitsprüfungen aus: Nach Anthropic und OpenAI haben nun auch Google Deepmind, Microsoft und xAI Vereinbarungen mit dem Center for AI Standards and Innovation geschlossen. Die Unternehmen stellen dabei auch Modelle mit reduzierten Schutzmaßnahmen für Tests in geheimen Umgebungen bereit – vor dem Hintergrund wachsender Cybersecurity-Risiken und des Tech-Wettrennens mit China. Der Artikel US-Behörde prüft KI-Modelle auf Sicherheitsrisiken, noch bevor sie veröffentlicht werden erschien zuerst auf The Decoder.

Tägliches KI-Briefing

Die wichtigsten KI-Nachrichten jeden Morgen. Kein Spam.

Kostenlos abonnieren →
Quelle
The Decoder DEOriginal lesen
Tracker erkunden