OpenAIs Ansatz zum Schutz der Integrität von Wahlen 2024
Die Sicherung der Integrität von Wahlen erfordert die Zusammenarbeit aller Beteiligten im demokratischen Prozess. OpenAI ist bestrebt, seine Technologien so einzusetzen, dass sie diesen Prozess nicht untergraben.
Technologieeinsatz im Alltag
Die Tools von OpenAI ermöglichen es Menschen, ihren Alltag zu verbessern und komplexe Probleme zu lösen. Dies reicht von der Nutzung von KI zur Verbesserung staatlicher Dienste bis hin zur Vereinfachung medizinischer Formulare für Patienten.
Sicherer Einsatz von KI-Systemen
Es ist wichtig, dass KI-Systeme sicher entwickelt, eingesetzt und genutzt werden. Wie jede neue Technologie bringen auch diese Tools sowohl Vorteile als auch Herausforderungen mit sich. OpenAI entwickelt seinen Ansatz kontinuierlich weiter, um zu lernen, wie seine Tools genutzt werden.
Vorbereitung auf die Wahlen 2024
Im Vorfeld der Wahlen 2024 in den größten Demokratien der Welt setzt OpenAI seine Arbeit an der Plattformsicherheit fort. Dazu gehört die Verbreitung genauer Wahlinformationen, die Durchsetzung ausgewogener Richtlinien und die Verbesserung der Transparenz. Ein teamübergreifender Einsatz, der Sicherheitssysteme, Bedrohungsanalyse, Recht, Technik und Politik vereint, widmet sich der Wahlvorbereitung.
Maßnahmen zur Verhinderung von Missbrauch
- OpenAI arbeitet daran, Missbrauch wie irreführende „Deepfakes“, großangelegte Beeinflussungsoperationen oder Chatbots, die Kandidaten imitieren, zu verhindern.
- Vor der Freigabe neuer Systeme werden diese intensiv getestet, Feedback von Nutzern und externen Partnern eingeholt und Sicherheitsmaßnahmen implementiert.
- Tools wie DALL·E verfügen über Schutzmechanismen, um Anfragen abzulehnen, die die Generierung von Bildern realer Personen, einschließlich Kandidaten, beinhalten.
Richtlinien zur Nutzung
- OpenAI verfeinert regelmäßig seine Nutzungsrichtlinien für ChatGPT und die API, um Missbrauch zu verhindern.
- Die Erstellung von Chatbots, die sich als reale Personen oder Institutionen ausgeben, ist nicht erlaubt.
- Anwendungen, die die Teilnahme an demokratischen Prozessen behindern, sind ebenfalls verboten.
Berichterstattung über Verstöße
- Bei den neuen GPTs können Nutzer potenzielle Verstöße melden.
Transparenz bei KI-generierten Inhalten
- OpenAI arbeitet an der Transparenz der Bildherkunft, um Wählern eine vertrauens
volle Beurteilung von Bildern zu ermöglichen.
- Früh im Jahr wird OpenAI digitale Nachweise für durch DALL·E 3 generierte Bilder einführen.
- Ein Provenienz-Klassifikator zur Erkennung von DALL·E-Bildern wird entwickelt und bald ersten Testern zur Verfügung gestellt.
Integration von ChatGPT mit aktuellen Informationsquellen
- ChatGPT wird zunehmend in bestehende Informationsquellen integriert, darunter Echtzeit-Nachrichtenberichterstattung weltweit, inklusive Quellenangaben und Links.
- Die Transparenz der Informationsherkunft und die Ausgewogenheit der Nachrichtenquellen sollen Wählern helfen, Informationen besser zu bewerten.
Verbesserung des Zugangs zu autoritativen Wahlinformationen
- In den USA arbeitet OpenAI mit der National Association of Secretaries of State (NASS) zusammen.
- ChatGPT wird Nutzer auf CanIVote.org, eine autoritative Website für US-Wahlinformationen, verweisen, wenn bestimmte wahlbezogene Fragen gestellt werden.
- Erkenntnisse aus dieser Arbeit werden als Grundlage für den Ansatz in anderen Ländern und Regionen dienen.
Abschluss
In den kommenden Monaten wird OpenAI weitere Informationen teilen. Das Unternehmen freut sich darauf, weiterhin mit Partnern zusammenzuarbeiten und von ihnen zu lernen, um den potenziellen Missbrauch seiner Tools im Vorfeld der globalen Wahlen dieses Jahres zu antizipieren und zu verhindern.
Quelle: OpenAI