Die Schweiz hat gute Gesetze gegen Delikte mit intimen Fälschungen. Doch um digitale Gewalt gegen Frauen zu bekämpfen, braucht es mehr, wie der Fall Fernandes/Ulmen zeigt.
Erinnern Sie sich an die offenen Briefe der Tech-Milliardäre und KI-Vordenker, die vor KI-Schreckszenarien warnten? Die eine starke Regulierung von autonomer KI forderten, weil sonst die Menschheit durch Roboter und Biowaffen ausgelöscht werde?
Diese privilegierte soziale Gruppe – weisse, reiche Männer – skizziert zwar durchaus plausible Gefahren, die von Zukunftstechnologien ausgehen. Doch sie blendet aus, welche Schäden ihre KI-Modelle bereits jetzt anrichten. Es sind Gefahren für Frauen, Minderheiten, nicht weisse Menschen; verursacht durch verzerrte Trainingsdaten, algorithmische Diskriminierung oder KI- Inhalte, die gegen den Willen der Betroffenen generiert wurden.
Und auch die regulatorische Supermacht EU hat sich verkalkuliert. Sie klassifiziert gemäss ihrem «AI Act» KI-generierte Inhalte und Deepfakes als ein «Transparenzrisiko» für die Gesellschaft. Wer also generative KI-Modelle nutzt, muss die Erzeugnisse einfach ausreichend kennzeichnen. Wie bei einer Packungsbeilage von Arzneimitteln.
Doch wie sich nun anhand des Falls von Collien Fernandes zeigt, wird das alles nicht mehr genügen.
Die deutsche Moderatorin und Schauspielerin litt jahrelang darunter, dass jemand sexualisierte Deepfakes von ihr in Umlauf brachte. Nun machte sie im «Spiegel» publik: Der mutmassliche Täter ist ihr eigener damaliger Ehemann, der Schauspieler und Komiker Christian Ulmen. Er soll sich unter anderem auf Linkedin als Fernandes ausgegeben und mit KI-Technologie kreierte pornografische Inhalte von ihr auf Pornografie-Plattformen publiziert haben. Das habe sich für sie wie eine «virtuelle Vergewaltigung» angefühlt, sagte Fernandes dem «Spiegel».
Nach dem Aufschrei in der Öffentlichkeit kündigte die deutsche Justizministerin Stefanie Hubig an, dass die Herstellung von sexualisierten Deepfakes ausdrücklich unter Strafe gestellt werden soll (und nicht nur deren Verbreitung).
Und wie sieht die Gesetzeslage in der Schweiz aus? Für einmal gar nicht so schlecht.
Hier existieren gleich zwei Straftatbestände, die bei sexualisierten Deepfake-Bildern zur Anwendung kommen könnten. Zum einen der relativ junge Artikel gegen Identitätsmissbrauch.
Und der ebenfalls relativ neue Artikel «Unbefugtes Weiterleiten von nicht öffentlichen sexuellen Inhalten». Dessen Anwendbarkeit auf Deepfake-Pornografie sei zwar umstritten in der Lehre, sagte mir Strafrechtsdozentin Nora Scheidegger. Es sei unklar, ob der Gesetzgeber auch KI-Inhalte im Sinn hatte bei der parlamentarischen Beratung. Und: «Soweit ersichtlich, existieren noch keine Gerichtsurteile, die Klarheit schaffen würden.» Doch für Expertinnen wie sie und auch den Juristen Marvin Stark lässt sich der Artikel durchaus auf sexualisierte Deepfake-Inhalte anwenden.
Und damit würden für einen Täter scharfe Strafen gelten: Macht er die Bilder öffentlich – wie bei Plattformen fast immer der Fall –, drohen ihm in der Schweiz bis zu 3 Jahre Haft (mehr, als in Deutschland geplant ist).
Doch diese an sich griffigen Gesetze werden nicht vor der Flut an digitaler Gewalt schützen, die gerade über uns hereinbricht. Vor allem, wenn die Täterschaft unbekannt bleibt. An Schweizer Schulen sind weibliche Teenager bereits gefährdet und Opfer von sogenannten Nudify-KIs (also KI-Diensten, die mittels Bildgenerierung aus einem normalen Foto scheinbar realistische Nacktbilder machen – meist ohne Einwilligung der abgebildeten Person). Und die Betreiber vieler dubioser Pornografie-Plattformen sind wegen verschleierter Informationen gar nicht für die Strafverfolgungsbehörden erreichbar.
Damit stossen wir auf das eigentliche Kernproblem: die Rechtsdurchsetzung. Alle Straftatbestände in Europas Staaten sind wirkungslos, wenn Plattformanbieter und Produzentinnen von KI-Systemen nicht in die Pflicht genommen werden.
Und diese denken gar nicht daran, zu kooperieren. Im Gegenteil: Sie unterstützen sogar teilweise die frauenfeindliche Maga-Agenda des US-Präsidenten Donald Trump. Ein paar Beispiele:
- Tech-Milliardär Elon Musk hat seinem KI-Modell Grok auf der Plattform X Ende Dezember 2025 eine Bildbearbeitungsfunktion hinzufügen lassen. Das Resultat: Tausende von Frauen, die gegen ihren Willen digital gedemütigt werden. Musk nannte die öffentliche Kritik daran «Zensurversuche».
- Palantir-CEO Alex Karp sagte kürzlich, dass KI-Technologien die Macht der Demokratischen Partei – vor allem weibliche Wählerinnen – brechen werden und den abgehängten männlichen Wähler der Arbeiterklasse (der im Militär ist) stärken werden. Seine politischen Präferenzen verhehlt Karp nicht: Die IT-Industrie müsse den «warfighter» stärken.
- Und Open-AI-CEO Samuel Altman musste wegen öffentlichen Drucks seine geplante Einführung von erotischen Inhalten seines Chatbots Chat GPT «für Erwachsene» verschieben – an den Plänen hält Open AI jedoch fest.
Die Tech-Oligarchen haben also gar keine Lust, die Taten von morgen zu verhindern. Sie setzen sogar aktiv Anreize zur Sexualisierung ihrer KI-Produkte. Weil damit auch die Verweildauer auf ihren Plattformen erhöht wird.
Was macht die Politik dagegen?
Die EU lancierte auf Basis ihres «Digital Services Act» eine Untersuchung gegen Musk, was höchstwahrscheinlich zu einer weiteren saftigen Busse führen wird. Mit dem «AI Act» hat die EU auch ein Produktsicherheitsgesetz und damit einen Hebel, um KI-Anwendungen vor Markteintritt regulieren zu können. Mit einem weiteren Gesetz will die EU explizit Cybergewalt eindämmen und damit auch alle kleineren Player ins Visier nehmen.
In der Schweiz ist soeben die Vernehmlassung zur Plattformregulierung – das Schweizer Pendant zum «Digital Services Act» – zu Ende gegangen. Die Vorlage ist bei allen Parteien von links bis rechts durchgefallen. Eine Mehrheit der Parteien von links bis zur FDP findet: zu schwach und zu zahnlos.
Kein Wunder: Der dafür zuständige SVP-Bundesrat Albert Rösti will zwar die Nutzerrechte ein wenig stärken. Doch die verantwortlichen Tech-Konzerne haben von der Schweiz sonst nichts zu befürchten. Sie müssen nichts gegen die von ihnen verursachen Schäden – wie Desinformation, Deepfakes, Propaganda, Sucht – unternehmen, sondern diese lediglich «ausweisen». Der Fokus auf Transparenz gilt auch für die (bis frühestens 2028) geplante KI-Regulierung.
Eine einfache «KI-Kennzeichnung» ist eine Ohrfeige für Tausende von Frauen, die damit digital entwürdigt werden und sich wegen des Psychoterrors aus den sozialen Netzwerken zurückziehen. Neben klaren Verboten, Produktsicherheitsansätzen und verbindlichen Pflichten für Konzerne bräuchte es dringend auch einen nationalen Aktionsplan gegen Cybergewalt und feministische Kurse zur digitalen Selbstverteidigung für junge Frauen.
Damit KI-generierte Gewalt gegen Frauen nicht zum noch grösseren gesellschaftlichen Risiko wird.
Kein gutes Rezept hingegen ist die Einführung einer Identifikationspflicht im Netz, wie sie die betroffene Schauspielerin Collien Fernandes fordert. Denn das ist eine Forderung, die am Ende Wasser auf die Mühlen einer globalen Überwachungskampagne wäre, die derzeit hinter den Kulissen im Gang ist.
Doch mehr dazu im nächsten Newsletter.
