
Auch mal eine spannende Entwicklung: Eine rechtspopulistische Politikerin warnt doch tatsächlich vor Falschinformationen im Internet. Irre! Auch irre: Mal sagen zu müssen, dass sie recht hat. Italiens Premierministerin Giorgia Meloni hat sich am Dienstag kritisch auf X über Deepfakes geäußert, die wohl von ihr in Umlauf sind.
Sie schreibt die mit KI-generierten Fakes „eifrigen Gegnern“ zu, die, „um anzugreifen und Falschheiten zu erfinden, inzwischen auf alles Mögliche setzen“ würden. Dazu postete sie einen Screenshot, auf dem ein Social-Media-Beitrag zu sehen ist. Er zeigt ein Bild von Meloni in Unterwäsche auf einem Bett, und einen Kommentar: „Dass sich eine Premierministerin in diesem Zustand präsentiert, ist wahrlich beschämend und ihrer institutionellen Rolle unwürdig. Aber sie kennt keine Scham.“
„Keine Scham“ ist das Stichwort, allerdings in Bezug auf die Menschen, die solche Bilder erstellen oder teilen. Dass es nun eine Rechte trifft, sollte keine Häme hervorrufen. Meloni, selbst wenn sie Vorsitzende der rechten Fratelli d’Italia ist, ist nur ein weiteres Opfer einer Praktik, die insbesondere gegen Frauen genutzt wird: Die Gegnerin wird sexualisiert, die Bilder geteilt.
Dabei geht es nicht unbedingt darum, eine Lüge zu verbreiten. Es geht vor allem darum, eine Regierungschefin auszuziehen in einer Welt, in der Anzugträger dominieren. Es geht um Erniedrigung.
Bikini- und Nacktbilder
Auch wenn Meloni schreibt, der Täter habe sie durch diese Darstellung „ganz erheblich aufgewertet“, weist sie auf die Gefahren hin. „Deepfakes sind ein gefährliches Werkzeug, weil sie täuschen, manipulieren und jeden treffen können. Ich kann mich wehren. Viele andere nicht.“ Damit hat sie recht.
Dafür muss es aber nicht mal ein Deepfake sein. Erst 2025 wurde öffentlich bekannt, dass Männer in einer italienischen Facebook-Gruppe mit knapp 32.000 Mitgliedern Fotos ihrer Partnerinnen und Ex-Partnerinnen posteten, auf denen sie in Bikini oder Unterwäsche zu sehen waren – oder nackt. Inzwischen hat Meta die Gruppe abgeschaltet.
All das ist keine Pornografie. Es fehlt die Zustimmung der Gezeigten – bei der Aufnahme selbst, beim Erstellen des KI-Fakes, beim Verbreiten. Es ist schlicht in Bilder gepresste sexualisierte Gewalt. Dass die jeden treffen könnte, wie Meloni schreibt, ist nicht konkret genug: Männer sind eben doch recht selten Opfer.
Dass ausgerechnet eine Rechtspopulistin nun auf die Gefahren von KI und Desinformation hinweist und den Ratschlag gibt, Inhalte erst mal zu prüfen, bevor man sie glaubt oder teilt, ist dennoch ironisch. Seit Jahren tun sich gerade rechte Parteien und ihr politisches Vorfeld auf Social-Media-Plattformen damit hervor, dass sie mit Lügen und Verschwörungserzählungen Hass und damit Wähler*innenstimmen oder gar Gewalt mehren.
Komplett erfundene Fake-Charaktere
Seit dem Aufstieg von KI, seit sich damit immer echter wirkendes Material erzeugen lässt, wird diese auch immer stärker dafür eingesetzt. Nicht nur, um falsche Fotos und Videos von Gegner*innen zu erzeugen, sondern auch um ganze Fake-Charaktere zu erstellen, zu denen User*innen eine Beziehung aufbauen und so schneller in menschenverachtende Ideologien gezogen werden sollen.
Und auch das funktioniert hervorragend über Sexualisierung: junge Frauen, die vor Migration warnen, erfundenen Nazi-Vorfahren huldigen – und vor allem leicht zu steuern sind, eben weil sie nicht existieren. Meloni nun per KI schlecht darstellen zu wollen, ist keine Lösung im Kampf gegen rechts, sondern ein antifeministischer Kampf gegen die Wahrheit.






