Die Universität Zürich hat still und heimlich ein Experiment auf Reddit durchgeführt - und dabei Millionen Nutzer:innen in der beliebten Community Change My View (CMV) bewusst in die Irre geführt. Der Clou: Kommentare kamen nicht von echten Menschen, sondern von KI-Bots, die sich als Missbrauchsopfer, Trauma-Therapeut:innen oder politische Außenseiter ausgaben. Alles ohne Einwilligung der Betroffenen. Willkommen im 2025er Ethikverständnis.
Das Ziel der Studie: herausfinden, wie überzeugend große Sprachmodelle argumentieren können - aber bitte unter realistischen Bedingungen. Und "realistisch" hieß für die Forscher offenbar: ohne Kennzeichnung als KI, mitten rein in eine Diskussionsplattform, auf der echte Menschen mit echten Geschichten um Argumente ringen. Die Bots wurden dabei nicht gerade zimperlich programmiert: Sie gaben sich u.a. als Vergewaltigungsopfer aus oder beschuldigten religiöse Gruppen indirekt des Massenmords.
CMV-Moderator:innen reagierten entsetzt - und reichten formell Beschwerde ein. Der Vorwurf: psychologische Manipulation, Datenscraping und gezieltes Ausnutzen emotionaler Schwachstellen. Die KI habe persönliche Themen der Nutzer:innen aktiv aufgegriffen, um maximale Wirkung zu erzielen. Man habe versucht, aus Posts Rückschlüsse auf Alter, Geschlecht, Herkunft und politische Einstellung zu ziehen - ein No-Go für eine Plattform, die auf Vertrauen und Transparenz basiert.
Die Universität? Hat sich entschuldigt - und gleichzeitig verteidigt. Die Studie sei wichtig, das Risiko „minimal“ und der Nutzen für die Gesellschaft "überragend". Konsequenz: Eine formale Verwarnung für den leitenden Forscher. Die Veröffentlichung der Studie? Läuft wie geplant.
Kommentare (0)