Google's Sicherheitsmaßnahmen für generative KI

In den letzten zwei Jahrzehnten hat Google kontinuierlich daran gearbeitet, maschinelles Lernen und Künstliche Intelligenz (KI) zu nutzen, um die eigenen Produkte hilfreicher zu gestalten. Von Smart Compose in Gmail bis zur Ermittlung schnellerer Routen in Google Maps hat die KI den Benutzern in vielerlei Hinsicht geholfen. Gleichzeitig trägt generative KI auch zur Lösung gesellschaftlicher Probleme bei, sei es in der Medizin oder im Kampf gegen den Klimawandel. Mit der verstärkten Integration von KI und insbesondere generativer KI in mehr Google-Produkte ist es von entscheidender Bedeutung, verantwortungsbewusst und mutig vorzugehen.

Schutzmaßnahmen von Anfang an implementieren

Google erkennt die Bedeutung verantwortungsbewusster Technologieentwicklung an und ergreift Maßnahmen, um eine breite Palette von Sicherheits- und Datenschutzrisiken, einschließlich solcher, die durch von KI generierte Bilder verursacht werden, zu identifizieren und zu minimieren. Dies geschieht in Übereinstimmung mit ihren KI-Prinzipien. Einige der wichtigsten Schritte in diesem Prozess sind:

Schutz vor unfairer Voreingenommenheit: Google hat Tools und Datensätze entwickelt, um unfairer Voreingenommenheit in ihren maschinellen Lernmodellen zu erkennen und zu reduzieren. Dies ist ein aktives Forschungsfeld, und in den letzten Jahren hat Google mehrere wegweisende wissenschaftliche Arbeiten zu diesem Thema veröffentlicht. Die Meinungen externer Experten werden ebenfalls regelmäßig eingeholt, um gesellschaftliche Kontexte zu berücksichtigen und Trainingsdaten auf mögliche Quellen unfairer Voreingenommenheit zu überprüfen.

Red Teaming: Sowohl interne als auch externe Experten sind in Red-Teaming-Programme involviert, die eine Vielzahl von Schwachstellen und Missbrauchspotenzialen testen. Dies umfasst nicht nur Cybersecurity-Risiken, sondern auch komplexe gesellschaftliche Herausforderungen wie Fairness. Diese speziellen Tests helfen, aktuelle und aufkommende Risiken zu identifizieren und ermöglichen es Google, diese proaktiv anzugehen.

Umsetzung von Richtlinien: Google hat Richtlinien zur Verwendung von generativer KI entwickelt, die schädlichen, unangemessenen, irreführenden oder illegalen Inhalt verbieten. Diese Richtlinien werden durch ein umfangreiches Klassifizierungssystem durchgesetzt, das dazu dient, Inhalte zu erkennen, zu verhindern und zu entfernen, die gegen die Richtlinien verstoßen. Wenn beispielsweise eine verletzende Anfrage oder Ausgabe identifiziert wird, reagieren die Produkte von Google nicht darauf und leiten den Benutzer gegebenenfalls zu weiteren Hilfsressourcen weiter.

Sicherheitsmaßnahmen für Jugendliche und Haftungsausschlüsse

Mit Blick auf die Sicherheit von Jugendlichen wurden spezielle Maßnahmen entwickelt, um Risiken im Zusammenhang mit generativer KI-Erfahrungen, wie beispielsweise SGE, zu minimieren. Dies beinhaltet die Beschränkung von Inhalten zu Themen wie Mobbing und den Einsatz von Altersbeschränkungen für illegale Substanzen.

Ein weiterer wichtiger Schritt besteht darin, Kunden in Bezug auf Urheberrechtsverletzungen abzusichern. Google hat starke Schutzmaßnahmen für Trainingsdaten und die von Benutzern generierten Inhalte implementiert. Dies bedeutet, dass Google die Verantwortung für mögliche rechtliche Risiken im Zusammenhang mit Urheberrechtsansprüchen übernimmt.

Zusätzlicher Kontext für generative KI-Ausgaben

Google hat sich dazu verpflichtet, den Benutzern mehr Kontext über die von ihren Modellen generierten Informationen zur Verfügung zu stellen. Dazu gehören Maßnahmen wie "Über dieses Ergebnis" in der Suchfunktion, um den Benutzern bei der Bewertung gefundener Informationen zu helfen. Besonders bei Bildern ist Kontext von großer Bedeutung, daher arbeitet Google daran, sicherzustellen, dass jedes durch ihre Produkte generierte Bild mit Metadatenbeschriftungen und eingebetteten Wasserzeichen versehen ist. Dies trägt dazu bei, die Herkunft und Authentizität von Bildern zu gewährleisten.

Schutz der Privatsphäre und persönlicher Daten

Google entwickelt KI-Produkte und -Erfahrungen, die von Anfang an auf Datenschutz ausgerichtet sind. Die bewährten Datenschutzmaßnahmen, die bereits seit Jahren gelten, werden auch auf generative KI-Tools angewendet. Benutzer haben die Möglichkeit, die Datenspeicherung zu pausieren, zu speichern oder zu löschen, auch im Zusammenhang mit generativer KI.

Es ist wichtig zu betonen, dass Google niemals persönliche Informationen an Dritte verkauft, insbesondere nicht zu Werbezwecken. Zusätzlich wurden spezielle Datenschutzvorkehrungen für generative KI-Produkte implementiert, um die Privatsphäre der Benutzer zu schützen.

Zusammenarbeit mit Stakeholdern für die Zukunft der KI

Die Entwicklung von KI wirft komplexe Fragen auf, die nicht von Google allein beantwortet werden können. Eine erfolgreiche und verantwortungsvolle Entwicklung von KI erfordert die Zusammenarbeit von Unternehmen, akademischen Forschern, zivilgesellschaftlichen Organisationen, Regierungen und anderen Interessengruppen. Google hat bereits Gespräche mit Gruppen wie der "Partnership on AI" und "ML Commons" aufgenommen und das "Frontier Model Forum" mit anderen führenden KI-Labors ins Leben gerufen, um die verantwortungsvolle Entwicklung fortschrittlicher KI-Modelle zu fördern. Darüber hinaus veröffentlicht Google Dutzende von Forschungsarbeiten, um ihr Wissen mit der Forschergemeinschaft und der Branche zu teilen.

Google ist transparent bezüglich ihres Fortschritts bei den Verpflichtungen, die sie eingegangen sind, einschließlich derjenigen, die sie auf einem Gipfeltreffen im Weißen Haus zusammen mit anderen Technologieunternehmen gemacht haben. Die Zusammenarbeit über die gesamte Branche hinweg und mit Regierungen, Forschern und anderen Interessengruppen wird fortgesetzt, um die Chancen zu nutzen und die Risiken anzugehen, die die KI mit sich bringt.

Quelle: Google

Zurück
Zurück

Kia EV9: Eine Reichweite von bis zu 563 Kilometern

Weiter
Weiter

Hybride Arbeitswelten: Begegnungen online und offline schaffen