Du postest ein ganz normales Urlaubsfoto – dein Kind am Strand, lachend, unbeschwert. Und plötzlich liest du, dass genau so ein Bild reichen kann, um daraus mithilfe von KI ein täuschend echtes Nacktbild zu machen. Mit einem einzigen Klick.
Genau davor warnt eine aktuelle Studie: KI-generierte sogenannte „Deepnudes“ treffen zunehmend auch Kinder – und die Hürde dafür ist erschreckend niedrig.
Sogenannte „Nudify-Apps” frei verfügbar
Auslöser der jüngsten Debatte war der KI-Chatbot Grok. Auf der Plattform X reichte teilweise ein Kommentar wie „undress her“ unter einem harmlosen Foto – und innerhalb von Sekunden erzeugte die KI ein sexualisiertes Bild der abgebildeten Person. Die Funktion wurde inzwischen gesperrt.
Doch das Problem bleibt: Sogenannte Nudify-Apps sind weiterhin frei verfügbar. Laut BR24 waren allein im Januar 2026
- 55 solcher Apps im Google Play Store
- 47 im Apple App Store
- Weltweit sollen sie bereits über 705 Millionen Mal heruntergeladen worden sein.
Neue Dimension von sexualisierter Gewalt gegen Kinder
Organisationen wie UNICEF, ECPAT und Europol sprechen in der aktuellen Studie von einer neuen Dimension sexualisierter Gewalt gegen Kinder.
Besonders alarmierend: Die Internet Watch Foundation meldet für das erste Halbjahr 2025 einen Anstieg von rund 400 Prozent bei KI-generierten Darstellungen sexualisierter Gewalt gegen Kinder. Und Expertinnen und Experten gehen von einer hohen Dunkelziffer aus.
Viele unterschätzen die Gefahr öffentlicher Bilder
Es braucht keine Influencer-Accounts mit tausenden Followern. Öffentlich einsehbare Profile reichen. Selbst Profilbilder, Statusbilder, Fotos in Messenger-Diensten wie WhatsApp können als Vorlage missbraucht werden.
Lea Peters von ECPAT Deutschland empfiehlt laut BR24 deshalb, möglichst keine Kinderfotos öffentlich zu posten. Und auch beim Verschicken in privaten Chats vorsichtig zu sein – denn Täter können leider auch aus dem erweiterten sozialen Umfeld stammen.
Gut zu wissen
Was sind Deepfakes?
Deepfakes sind mit Künstlicher Intelligenz manipulierte Bilder, Videos oder Stimmen. Dabei werden echte Fotos oder Aufnahmen so verändert, dass Menschen scheinbar Dinge sagen oder tun, die nie passiert sind – oder es entstehen komplett gefälschte, aber täuschend echte Inhalte. Oft reicht schon ein normales Foto, damit daraus mithilfe von KI ein verändertes oder sogar sexualisiertes Bild gemacht werden kann.
Wenn es passiert: Was du konkret tun kannst
So schrecklich der Gedanke ist – es hilft, vorbereitet zu sein. Laut BR24 raten Fachleute zu folgenden Schritten:
1. Ruhe bewahren – und richtig Beweise sichern
Wichtig ist, dass du alle Begleitinformationen dokumentierst, die den Vorfall nachvollziehbar machen. Also nicht das eigentliche Bild selbst speichern, das wäre strafbar, sondern zum Beispiel:
- Chatverläufe: Die Nachrichten, in denen das Bild geschickt oder erwähnt wurde.
- Namen oder Nutzerkonten der beteiligten Personen.
- Datum und Uhrzeit, wann das Bild verschickt oder gepostet wurde.
- Links oder URLs zu Posts oder Gruppen, in denen das Bild auftaucht.
- Kommentare oder Reaktionen anderer Nutzer, die den Kontext zeigen.
2. Inhalte melden
Die betreffenden Inhalte sollten bei der jeweiligen Plattform gemeldet werden. Zusätzlich können Eltern oder Betroffene anonym bei jugendschutz.net Meldung erstatten. Die Stelle prüft den Fall und leitet ihn gegebenenfalls weiter.
3. Anzeige erstatten
Juristisch sind sexualisierte KI-Deepfakes von Kindern strafbar. Entscheidend ist laut Experten nicht, ob das Bild „echt“ ist, sondern wie realistisch es wirkt und wie es verbreitet wird. Trotzdem empfehlen Fachleute, sich vor einer Anzeige beraten zu lassen.
Bei sexualisierten Deepfakes von Kindern ist die Rechtssituation noch sehr speziell und kompliziert. Das heißt, wenn man unbedacht handelt, könnte man versehentlich selbst gegen das Gesetz verstoßen.
4. Technische Hilfe nutzen
Das US-amerikanische Angebot National Center for Missing & Exploited Children bietet mit „Take It Down“ ein Tool an, das gemeldete Bilder in digitale Fingerabdrücke umwandelt. So können identische Inhalte aufgespürt und gelöscht werden.
Eine Garantie, dass alles komplett verschwindet, gibt es allerdings nicht.
Wieso gibt es keinen besseren rechtlichen Schutz?
Laut BR24 erfüllen sexualisierte KI-Deepfakes von Kindern bereits Straftatbestände. Trotzdem hinkt das Recht der technischen Entwicklung hinterher – besonders beim Schutz von Erwachsenen. Ein ausdrückliches Verbot sexualisierter Deepfakes fehlt bislang.
Bundesjustizministerin Stefanie Hubig hat angekündigt, den rechtlichen Schutz Betroffener verbessern zu wollen
Die Zahlen sind wirklich beunruhigend – immer mehr Kinder sind online potenziell gefährdet, auch durch neuartige Deepfake-Apps. Wir können Kinder nicht vollständig vor allem Digitalen abschirmen. Aber Eltern können sie begleiten, ihnen Grenzen aufzeigen und sie Schritt für Schritt sicher durchs Netz führen.
Unsere Empfehlung: Keine Kinderbilder posten
Wir empfehlen dir sehr bewusst mit Fotos deiner Kinder umzugehen – vor allem mit öffentlich sichtbaren Bildern. Privatsphäre-Einstellungen regelmäßig zu prüfen, keine leicht zugänglichen Profilbilder zu posten und genau zu überlegen, was wirklich ins Netz gehört.
Gleichzeitig finden wir es wichtig, mit Kindern früh über digitale Risiken zu sprechen – altersgerecht und ohne Panik. Damit sie wissen: Wenn etwas passiert, sind sie nicht schuld – und sie können jederzeit zu dir kommen.
Wie gehst du mit Kinderbildern im Netz um? Lass uns dazu gerne in den Kommentaren in den Austausch gehen!
KI-Gefahr: Rasante Zunahme von gefälschten Kindernacktbildern
Von
Lena Krause
2. März 2026