Rubrik Kultur auf dem Dreiecksplatz
Dudelsack auf dem Dreiecksplatz
Gänsemarkt auf dem Dreiecksplatz
Koffermarkt auf dem Dreiecksplatz
Kulturgemeinschaft Dreiecksplatz
Kunstautomat auf dem Dreiecksplatz
Langenachtderkunst 2016, »Waffelskulpturen«
Langenachtderkunst 2017, »GToastet«
Langenachtderkunst 2018, »Transpohrter«
Langenachtderkunst 2019, »GTrommelt«
Sponsoren, Freunde und Förderer der Kulturgemeinschaft Dreiecksplatz
Einzelhandel am Dreiecksplatz, Übersicht
Bezirksdirektion Kattenstroth – die Continentale, Kattenstroth seit 1976 GmbH & Co. KG
Rüterbories Sicherheitsfachgeschäft am Dreiecksplatz
Informationen zu Creative Commons (CC) Lizenzen, für Pressemeldungen ist der Herausgeber verantwortlich, die Quelle ist der Herausgeber
Open AI bricht eigene Regeln – KI produziert problematische Bilder von EU Wahlkandidaten
»AlgorithmWatch«, Berlin, 30. Mai 2024
»#AlgorithmWatch« hat untersucht, welche Bilder sich kurz vor der EU Wahl mit großen generativen KI Systemen erstellen lassen. Die Stichprobe zeigt, dass keiner der großen Anbieter das Generieren echt wirkender Bilder von Kandidierenden im Wahlkampf verhindert.
»OpenAI« und »StabilityAI« sind 2 der größten Anbieter von generativen Bild KI Systemen. Anfang 2024 haben sie angekündigt, einen Missbrauch der eigenen KI rund um die EU Wahl verhindern zu wollen. Beim System »DALL·E« sollte es laut »OpenAI« nicht möglich sein, Bilder von realen EU Kandidaten zu generieren.
Auch »StabilityAI« wollte bei seinem System Stable Diffusion Sicherheitsmaßnahmen einbauen. Ein Experiment von »AlgorithmWatch« zeigt: Diese Maßnahmen gibt es nicht oder sie funktionieren nicht. Im April 2024 konnten wir immer noch Bilder von deutschen Anwärtern auf ein EU Mandat erstellen. Der Anbieter »#MidJourney« hat sich gar nicht erst verpflichtet, anlässlich der EU Wahl Sicherheitsmaßnahmen zu ergreifen.
Matthias Spielkamp, Geschäftsführer von »AlgorithmWatch«: »Unsere Untersuchungen zeigen, dass die Selbstverpflichtungen der KI Anbieter kaum das Papier wert sind, auf dem sie geschrieben wurden. Jedes Mal, wenn wir die Qualität der Ergebnisse von generativer KI untersuchen, kommen wir zu dem gleichen Ergebnis: Die Sicherheitsmaßnahmen gegen das Erstellen von unerwünschten Inhalten lassen sich umgehen, die Ergebnisse sind unwahr oder diskriminierend. Neue Gesetze sollen Anbieter zwar dazu in die Pflicht nehmen, aber sie können bei den EU Wahlen noch nicht effektiv angewendet werden. Wir müssen weiterhin genau beobachten, welche Inhalte mit generativer KI in die Welt gesetzt werden.«
»AlgorithmWatch« hat »DALL·E«, »MidJourney« und Stable Diffusion Bilder von realen Kandidaten erstellen lassen. Zwar sehen die auf den Bildern dargestellten Menschen nicht so aus wie die real existierenden Personen. Das ist jedoch für Wähler oft nicht zu erkennen: Viele Kandidaten für das EU Parlament sind nicht oder kaum in der Bevölkerung bekannt. Das Wahlverhalten Einzelner könnte also mit generierten Bildern manipuliert werden. Nur in 2 Fällen hat es »MidJourney« abgelehnt, Bilder auf Basis eines Prompts mit einem realen Namen zu generieren. »AlgorithmWatch« hat diese Testergebnisse vor der Veröffentlichung zunächst einigen betroffenen Kandidaten mitgeteilt.
Die Analyse von mehr als 8.500 generierten Bildern zeigt außerdem, dass die Systeme weiterhin stereotype Darstellungen produzieren. »AlgorithmWatch« hatte bereits Ende 2023 auf diesen Missstand hingewiesen.
Die ausführliche Beschreibung der Untersuchung ist hier nachzulesen.