ANMELDUNG

KI-generierte Bilder von sexuellem Missbrauch von Kindern könnten das Internet überschwemmen. Nun gibt es Handlungsaufforderungen

von Ryan Lee
0 Kommentar

Laut einer Warnung einer Überwachungsgruppe vom Dienstag könnte das eskalierende Problem von Bildern über sexuellen Missbrauch von Kindern im Internet durch unregulierte Tools der künstlichen Intelligenz verschärft werden, die gefälschte Fotos produzieren können. Die in Großbritannien ansässige Internet Watch Foundation hat einen Bericht veröffentlicht, in dem Regierungen und Technologieunternehmen zu sofortigen Maßnahmen aufgefordert werden, um eine Flut von KI-generierten Bildern von sexuellem Missbrauch von Kindern zu verhindern, die die Strafverfolgungsbehörden überfordern und die Zahl potenzieller Opfer erhöhen könnten.

Dan Sexton, Chief Technology Officer der Gruppe, betonte die Dringlichkeit der Situation und erklärte, dass das Problem aktuell sei und sofortige Aufmerksamkeit erfordere. In einem bahnbrechenden Fall in Südkorea wurde kürzlich eine Person verurteilt, weil sie mithilfe von KI zahlreiche virtuelle Bilder von Kindesmissbrauch erstellt hatte.

Der Bericht hebt auch Fälle hervor, in denen Kinder selbst diese Werkzeuge schädlich genutzt haben. Im Südwesten Spaniens untersucht die Polizei einen Fall, in dem Teenager angeblich eine App genutzt haben, um Nacktbilder ihrer Klassenkameraden zu erstellen.

Dieser alarmierende Trend unterstreicht die negativen Aspekte des Wettlaufs um die Entwicklung generativer KI-Systeme, die darauf ausgelegt sind, auf der Grundlage von Benutzereingaben Ergebnisse zu erstellen, die von Text bis hin zu Grafiken reichen. Die unkontrollierte Verbreitung gefälschter Bilder von sexuellem Missbrauch von Kindern stellt Ermittler vor große Herausforderungen und könnte dazu genutzt werden, neue Opfer zu gewinnen.

Der Bericht zeigt, dass berühmte Kindergesichter im Internet gefunden wurden und dass die Nachfrage nach der Erstellung weiterer Bilder von Kindern, die zuvor Opfer von Missbrauch waren, groß ist. Sexton bemerkte die schockierende Nutzung bestehender Inhalte zur Generierung neuer missbräuchlicher Bilder.

Die Internet Watch Foundation erhielt Anfang dieses Jahres erstmals Berichte über von KI erzeugte missbräuchliche Bilder, was zu Untersuchungen in Dark-Web-Foren führte. Es wurde festgestellt, dass Täter Tipps weitergaben und ihre Heimcomputer nutzten, um lebensechte, sexuell eindeutige Bilder von Kindern zu erstellen.

Während der Bericht des IWF darauf abzielt, das Bewusstsein zu schärfen und nicht Lösungen anzubieten, fordert er die Regierungen, insbesondere in der Europäischen Union, auf, die Gesetze gegen KI-bedingten Missbrauch zu verschärfen. Der Bericht unterstreicht auch die Notwendigkeit für Technologieanbieter, den Missbrauch ihrer Tools zu verhindern, und erkennt an, wie komplex es ist, bereits veröffentlichte Technologien einzudämmen.

Die meisten neu eingeführten KI-Bildgeneratoren, einschließlich DALL-E von OpenAI, enthalten Mechanismen, um die Erstellung von Material über Kindesmissbrauch zu blockieren. Das von Stability AI entwickelte Open-Source-Tool Stable Diffusion wird jedoch häufig zur Erstellung expliziter Inhalte, einschließlich nicht einvernehmlicher Bilder, verwendet. Stability AI hat seitdem neue Filter und Lizenzbedingungen implementiert, um illegale Nutzungen zu bekämpfen.

David Thiel vom Stanford Internet Observatory stellt fest, dass ältere Versionen von Stable Diffusion weiterhin beliebt für die Erstellung expliziter Kinderinhalte sind. Der IWF-Bericht erkennt die Herausforderungen bei der Kriminalisierung von KI-Bilderzeugungswerkzeugen an und betont die Schwierigkeit, die private Computernutzung zu regulieren.

Bestehende Gesetze in den USA, Großbritannien und anderswo halten KI-generierte Bilder von sexuellem Kindesmissbrauch in der Regel für illegal, es ist jedoch ungewiss, ob die Strafverfolgungsbehörden für die Lösung dieses Problems gerüstet sind. Ian Critchley vom National Police Chiefs' Council weist auf die beunruhigenden Trends hin, die Beamte bei der Identifizierung von Opfern beobachten.

Der Bericht des IWF wird im Vorfeld eines globalen KI-Sicherheitsgipfels veröffentlicht und zielt darauf ab, die dunkleren Aspekte der KI-Technologie mit Schlüsselfiguren, darunter US-Vizepräsidentin Kamala Harris und Technologieführern, zu diskutieren. Susie Hargreaves, CEO des IWF, bleibt trotz der düsteren Situation optimistisch und betont die Bedeutung von Bewusstsein und Dialog.

Dieser Bericht enthält Beiträge von O'Brien aus Providence, Rhode Island, und den Big Big News-Autoren Barbara Ortutay aus Oakland, Kalifornien, und Hyung-jin Kim aus Seoul, Südkorea.

Sie können auch mögen

Hinterlasse einen Kommentar

logo-site-white

BNB – Big Big News ist ein Nachrichtenportal, das die neuesten Nachrichten aus der ganzen Welt bietet. BNB – Big Big News konzentriert sich darauf, den Lesern die aktuellsten Informationen aus den USA und dem Ausland zu bieten und ein breites Themenspektrum abzudecken, darunter Politik, Sport, Unterhaltung, Wirtschaft, Gesundheit und mehr.

Redakteurfavoriten

Neueste Nachrichten

© 2023 BBN – Big Big News

de_DEDeutsch