KI-gestützte Cyberattacken: OpenAI deckt staatlich-unterstützte Akteure auf

OpenAI, der Entwickler hinter den bekannten KI-Sprachmodellen wie ChatGPT, arbeitet kontinuierlich daran, Missbrauch ihrer Tools zu unterbinden. Insbesondere staatlich-finanzierte Akteure werden durch ihre potenziellen Ressourcen und hochqualifizierten Mitarbeiter als besondere Bedrohung im digitalen Raum identifiziert.

Eine Partnerschaft zwischen OpenAI und Microsoft Threat Intelligence hat nun fünf dieser Gruppen enttarnt und offengelegt, wie durch missbräuchliche Verwendung von KI-Diensten böswillige Cyberaktivitäten unterstützt werden sollten. OpenAI präsentiert in diesem Kontext Ansätze zur Erkennung und Bekämpfung, sowie eine transparente Aufbereitung der Aktivitäten dieser Akteure.

Akteure werden gestört

Mithilfe der Zusammenarbeit und des Informationsaustauschs mit Microsoft wurden folgende staatlich-finanzierte Akteure gestört:

  • Zwei chinesische Akteure: Charcoal Typhoon und Salmon Typhoon
  • Der iranische Akteur: Crimson Sandstorm
  • Aus Nordkorea: Emerald Sleet
  • Aus Russland: Forest Blizzard

OpenAI hat die identifizierten und mit diesen Akteuren verknüpften Konten gelöscht. Sie nutzten die Dienste oft für vergleichsweise banale Tätigkeiten wie:

  • Recherche öffentlich zugänglicher Informationen (Open-Source-Intelligence)
  • Übersetzungen
  • Debuggen von Code
  • Allgemeine Programmieraufgaben

Aktivitäten im Einzelnen

Hier finden Sie exemplarisch was die aufgedeckten Gruppen mithilfe der KI zu bewerkstelligen versuchten:

  • Charcoal Typhoon: Marktforschung, Analyse von Cybersecurity-Tools, Skript-Entwicklung und wahrscheinliche Erstellung von Inhalten für Phishing-Attacken.
  • Salmon Typhoon: Übersetzung technischer Fachtexte, Ausspähen regionaler Akteure aus dem Sicherheitsbereich und Unterstützung bei Verschleierungstaktiken für Schadsoftware.
  • Crimson Sandstorm: Scripting-Support für Web-Apps, Unterstützung bei Spear-Phishing-Kampagnen und Recherche zu Malware-Verschleierung.

(Verweis auf den Microsoft Blogpost für tiefergehende technische Details)

Vielschichtiger Ansatz bei der KI-Sicherheit

OpenAI betont, dass eine mehrgleisige Strategie von entscheidender Bedeutung für den Kampf gegen diese Form der Cyberkriminalität ist. Einige Kernmaßnahmen in diesem Ansatz:

  • Überwachung & Unterbindung: Spezielle Teams identifizieren und stören Aktivitäten komplex agierender Akteure.
  • Branchenkollaboration: Regelmäßiger Informationsaustausch zwischen KI-Unternehmen zur Stärkung kollektiver Abwehrmaßnahmen.
  • Kontinuierliche Verbesserung: Lehren aus realem Systemmissbrauch helfen dabei, immer sicherere KI-Systeme bereitzustellen.
  • Öffentliche Transparenz: OpenAI fördert durch Veröffentlichungen ein höheres Bewusstsein für Gefahrenpotentiale durch KI-Missbrauch.

Fazit

Der immense Nutzen von KI für den alltäglichen Gebrauch überwiegt bei Weitem. Dennoch erfordern vereinzelte, böswillige Anwendungsversuche durch kontinuierliche Investitionen in Sicherheit, branchenweite Kooperation und einen offenen Informationsaustausch dauerhafte Aufmerksamkeit. So lassen sich potentielle Risiken reduzieren und ein sicheres Nutzungserlebnis für alle sicherstellen.

Quelle: OpenAI

Zurück
Zurück

Vodafone und RWE setzen auf Windenergie

Weiter
Weiter

Roku knackt wichtige Meilensteine: 80 Millionen aktive Konten