Schön, dass Du Dich verklickt hast

Nachrichten

10 Mio. Dollar KI-Sicherheitsfonds von Google, Microsoft und OpenAI

In einer gemeinsamen Ankündigung haben die Technologieunternehmen Anthropic, Google, Microsoft und OpenAI bekannt gegeben, dass Chris Meserole zum ersten Exekutivdirektor des Frontier Model Forum ernannt wurde. Gleichzeitig wurde die Einrichtung eines neuen KI-Sicherheitsfonds im Wert von mehr als 10 Millionen US-Dollar bekanntgegeben. Das Frontier Model Forum ist eine Industrieorganisation, die sich auf die sichere und verantwortungsvolle Entwicklung von fortschrittlichen KI-Modellen konzentriert. Diese Ankündigung markiert einen bedeutsamen Schritt in Richtung KI-Sicherheit und verantwortungsvoller KI-Entwicklung.

Exekutivdirektor für das Frontier Model Forum

Chris Meserole bringt eine beeindruckende Expertise im Bereich Technologiepolitik mit, insbesondere in Bezug auf die Governance und Sicherheit aufstrebender Technologien und ihrer zukünftigen Anwendungen. Vor seiner Ernennung zum Exekutivdirektor des Frontier Model Forum leitete er das Artificial Intelligence and Emerging Technology Initiative am Brookings Institution.

In seiner neuen Rolle übernimmt Meserole die Verantwortung dafür, die Ziele des Frontier Model Forums zu verwirklichen. Diese Ziele umfassen die Förderung der KI-Sicherheitsforschung zur Gewährleistung der verantwortungsvollen Entwicklung fortschrittlicher Modelle und zur Minimierung möglicher Risiken. Darüber hinaus sollen bewährte Sicherheitspraktiken für fortschrittliche KI-Modelle identifiziert und Wissen mit politischen Entscheidungsträgern, Wissenschaftlern, zivilgesellschaftlichen Organisationen und anderen geteilt werden, um die verantwortungsbewusste Entwicklung von KI voranzutreiben. Nicht zuletzt geht es darum, Anstrengungen zur Nutzung von KI zur Bewältigung gesellschaftlicher Herausforderungen zu unterstützen.

In seinen eigenen Worten betonte Chris Meserole: „Die leistungsstärksten KI-Modelle bergen enormes Potenzial für die Gesellschaft. Um dieses Potenzial zu realisieren, müssen wir jedoch besser verstehen, wie man sie sicher entwickelt und bewertet. Ich freue mich auf diese Herausforderung mit dem Frontier Model Forum.“

Der KI-Sicherheitsfonds

Die rasante Entwicklung der KI hat im vergangenen Jahr zu erheblichen Fortschritten in den Fähigkeiten der KI geführt. Mit dieser Beschleunigung wird die Notwendigkeit für neue akademische Forschung im Bereich KI-Sicherheit immer dringlicher. Um dieser Herausforderung zu begegnen, haben das Frontier Model Forum und seine philanthropischen Partner beschlossen, einen neuen KI-Sicherheitsfonds ins Leben zu rufen. Dieser Fonds wird unabhängige Forscher weltweit unterstützen, die mit akademischen Einrichtungen, Forschungseinrichtungen und Start-ups verbunden sind.

Die anfängliche Finanzierung für den KI-Sicherheitsfonds kommt von Anthropic, Google, Microsoft und OpenAI, sowie von philanthropischen Organisationen wie der Patrick J. McGovern Foundation, der David and Lucile Packard Foundation, Eric Schmidt und Jaan Tallinn. Diese bedeutende finanzielle Unterstützung beläuft sich auf mehr als 10 Millionen US-Dollar, und es wird erwartet, dass weitere Beiträge von anderen Partnern folgen werden.

Der KI-Sicherheitsfonds ist von besonderer Bedeutung, da er dazu beitragen wird, die externe Forschungsgemeinschaft mit Mitteln auszustatten, um fortschrittliche KI-Systeme besser zu bewerten und zu verstehen. Dies ist ein Schritt in Richtung einer breiteren Diskussion über KI-Sicherheit und den Austausch von Wissen.

Der Schwerpunkt des Fonds wird auf der Unterstützung der Entwicklung neuer Bewertungsmethoden und Techniken für das Red Teaming von KI-Modellen liegen. Dies dient dazu, Techniken zur Identifizierung potenziell gefährlicher Fähigkeiten von fortschrittlichen Systemen zu entwickeln und zu testen. Die verstärkte Finanzierung in diesem Bereich wird erwartungsgemäß dazu beitragen, Sicherheits- und Qualitätsstandards zu erhöhen und Einblicke in die erforderlichen Maßnahmen und Kontrollen zu liefern.

Technische Expertise und Zusammenarbeit

In den letzten Monaten hat das Frontier Model Forum daran gearbeitet, eine gemeinsame Grundlage für die Definition von Begriffen, Konzepten und Prozessen im Bereich KI-Sicherheit zu schaffen. Dies ist entscheidend, um sicherzustellen, dass Forscher, Regierungen und andere Akteure in den Diskussionen über KI-Sicherheit und Governance auf dem gleichen Stand sind.

Eine weitere wichtige Initiative ist die Förderung bewährter Praktiken im Bereich „Red Teaming“ innerhalb der Branche. In einem Arbeitsgruppen-Update hat das Forum eine gemeinsame Definition von „Red Teaming“ für KI entwickelt und Fallstudien geteilt. Red Teaming bezieht sich auf einen strukturierten Prozess zur Untersuchung von KI-Systemen und -produkten, um schädliche Fähigkeiten, Ausgaben oder Bedrohungen zu identifizieren. Diese gemeinsamen Best Practices werden die Diskussion über KI-Sicherheit und Governance voranbringen.

Zusätzlich arbeitet das Forum an einem Prozess für die verantwortungsbewusste Offenlegung. Dieser Prozess ermöglicht es Unternehmen und Laboren, Informationen über entdeckte Sicherheitslücken oder potenziell gefährliche Fähigkeiten in KI-Modellen zu teilen. Dieser Austausch ist von großer Bedeutung, da er dazu beitragen wird, die Sicherheit von KI-Systemen zu erhöhen.

Ausblick und Zusammenarbeit

In den kommenden Monaten wird das Frontier Model Forum einen Beirat einrichten, der die Strategie und Prioritäten des Forums leiten wird. Dieser Beirat wird eine breite Palette von Perspektiven und Fachwissen repräsentieren. Zukünftige Veröffentlichungen und Aktualisierungen, einschließlich Updates über neue Mitglieder und technische Erkenntnisse, werden direkt vom Frontier Model Forum stammen. Interessierte sollten die Website des Forums im Auge behalten, um auf dem Laufenden zu bleiben.

Der KI-Sicherheitsfonds wird in den kommenden Monaten seinen ersten Aufruf für Forschungsvorschläge starten, und es wird erwartet, dass Zuschüsse kurz darauf vergeben werden. Die Einrichtung des Fonds wird dazu beitragen, die Forschung und Entwicklung im Bereich KI-Sicherheit weiter voranzutreiben und ein breiteres Verständnis für die Herausforderungen und Chancen in diesem Bereich zu fördern.

Das Frontier Model Forum ist entschlossen, mit Chris Meserole und der gesamten Forschungsgemeinschaft zusammenzuarbeiten, um die Vorteile der KI zu realisieren und gleichzeitig deren sichere Entwicklung und Nutzung zu fördern. Dies geschieht in enger Zusammenarbeit mit anderen Organisationen wie der Partnership on AI, MLCommons und verschiedenen NGOs, Regierungen sowie multinationalen Organisationen. Gemeinsam setzen sie sich für eine verantwortungsbewusste und sichere KI-Zukunft ein.

Quelle: Google