🔍 Mit Hilfe von maschinellem Lernen gegen sexuellen Kindesmissbrauch vorgehen
Sexueller Kindesmissbrauch ist ein abscheuliches Verbrechen, das Millionen von Kindern weltweit betrifft. Das Internet hat es Missbrauchstätern erleichtert, Bilder und Videos ihrer Verbrechen zu teilen, was es für Strafverfolgungsbehörden schwierig macht, Opfer aufzuspüren und zu retten. Allerdings kann Technologie auch dazu verwendet werden, dieses Problem zu bekämpfen. In diesem Artikel werden wir untersuchen, wie maschinelles Lernen eingesetzt werden kann, um sexuellen Kindesmissbrauch zu erkennen, zu überprüfen und zu melden.
📝 Inhaltsverzeichnis
- Einführung
- Die Schwere unserer Arbeit
- Die Herausforderung, sexuellen Kindesmissbrauch zu finden und zu stoppen
- Die Rolle des maschinellen Lernens im Kampf gegen sexuellen Kindesmissbrauch
- Aufbau des Klassifikators
- Datenvorbereitung und Training
- Bereitstellung und Wartung des Modells
- Auswirkungen des maschinellen Lernens auf sexuellen Kindesmissbrauch
- Safer Essential: Eine API-basierte Lösung zur schnellen Erkennung von bekannten Materialien zum sexuellen Kindesmissbrauch
- Teilnahme am Kampf gegen sexuellen Kindesmissbrauch
🌟 Die Schwere unserer Arbeit
Die Geschichte von Maria, einem Kind, das sexuell missbraucht wurde und dessen Täter Bilder und Videos des Missbrauchs auf einer Inhaltsplattform geteilt hat, erinnert uns eindringlich an die Schwere unserer Arbeit. Die Plattform, die der Täter von Maria benutzte, verbarg sich mitten unter Hunderten von Millionen anderen Bildern und Videos. Allerdings verwendete die Plattform Thorn's Safer-Produkt, das einen Klassifikator für sichereres Material zum sexuellen Kindesmissbrauch (CESAM) verwendet, um Bilder und Videos zu finden, die eine aktive Missbrauchssituation mit einem Kind zeigen könnten.
Eines Tages alarmierte der Klassifikator die Plattform über mehr als 2.000 neue Missbrauchsdateien. Es war offensichtlich, dass ein Kind missbraucht wurde, daher wurde der Fall den Strafverfolgungsbehörden gemeldet, die eine Untersuchung einleiteten. Dank des Klassifikators wurde das Kind auf dem Inhalt gefunden und Maria wurde gerettet. Dies ist die Realität unserer Arbeit und es verdeutlicht die Kraft der Technologie, um den Albtraum eines Kindes im wirklichen Leben zu beenden.
🎯 Die Herausforderung, sexuellen Kindesmissbrauch zu finden und zu stoppen
Die Herausforderung, sexuellen Kindesmissbrauch zu finden und zu stoppen, ist immens. Laut dem National Center for Missing and Exploited Children erhielten sie im Jahr 2022 über 88 Millionen Dateien mit Verdacht auf sexuellen Kindesmissbrauch, die ihnen von Online-Plattformen gemeldet wurden. Dabei handelt es sich nicht nur um Dateien; dies sind Kinder, die dringend Hilfe benötigen. Bei 88 Millionen Dateien würde selbst eine Sekunde Überprüfung pro Datei fast drei Jahre ununterbrochene Überprüfung erfordern. Wir dürfen kein Kind so lange warten lassen, um Hilfe zu erhalten.
🤖 Die Rolle des maschinellen Lernens im Kampf gegen sexuellen Kindesmissbrauch
Maschinelles Lernen kann eine entscheidende Rolle im Kampf gegen sexuellen Kindesmissbrauch spielen. Der CESAM-Klassifikator ist ein leistungsstarker Magnet, der neues Material zum sexuellen Kindesmissbrauch im großen Maßstab finden kann. Der Klassifikator verwendet Hashing und Abgleich, um bekanntes Missbrauchsmaterial zu finden, das bereits von einem Analysten verifiziert wurde, sowie um neues Missbrauchsmaterial zu finden.
🏗️ Aufbau des Klassifikators
Bei der Entwicklung des Klassifikators folgte das Team von Thorn dem CRISP-DM-Prozess. Allerdings mussten sie eine entscheidende Hürde überwinden: Material zum sexuellen Kindesmissbrauch ist illegal und kann nicht an denselben Orten oder auf dieselbe Weise wie andere Inhalte gespeichert werden. Die Lösung bestand darin, zusammenzuarbeiten und in Hardware zu investieren, die vor Ort bei Organisationen mit dem legalen Recht zur Speicherung dieser Daten installiert wurde. Der Klassifikator wurde vor Ort trainiert und anschließend wurde Amazons ECR verwendet, um das trainierte Modell an Endbenutzer zu verteilen.
📊 Datenvorbereitung und Training
Die Datenvorbereitung ist entscheidend beim Training des Klassifikators. Techniken wie perceptual hashing werden verwendet, um den Datensatz zu duplizieren und sicherzustellen, dass es keine Überschneidungen zwischen den Trainings-, Test- und Validierungssätzen gibt. Amazon S3 wird verwendet, um nicht missbräuchliches Material zu speichern, das für das Training des Klassifikators genauso wichtig ist wie das Missbrauchsmaterial. Das Training des Modells über Remote-Zugriff auf eine lokale Lösung kann langsam und undurchsichtig sein, daher werden Amazon EC2 und EKS verwendet, um zunächst R&D mit unbedenklichen Daten durchzuführen, Fehler zu beheben und Probleme in der Trainingspipeline zu beheben, bevor das Training vor Ort erfolgt.
🚀 Bereitstellung und Wartung des Modells
Eine effektive Bereitstellung des Modells ist entscheidend, um den Klassifikator in die Hände der Benutzer zu bekommen. In enger Zusammenarbeit mit den Engineering- und Produktteams wird die richtige Lösung für die Bedürfnisse der Benutzer gefunden. Eine datenschutzorientierte und menschenzentrierte Bereitstellung ist unerlässlich, und Benutzer haben die volle Kontrolle darüber, wann und wie der Inhalt überprüft und gemeldet wird.
Modelle werden veraltet und weisen Verzerrungen auf, daher ist die Überwachung der Leistung und regelmäßiges Neutraining entscheidend. Benutzer können falsch positive Ergebnisse über eine API in Thorn's AWS-gehosteten Safer Services melden, was gezieltes Neutraining und eine verbesserte Leistung bei Daten in freier Wildbahn ermöglicht.
🌟 Auswirkungen des maschinellen Lernens auf sexuellen Kindesmissbrauch
Die Auswirkungen des maschinellen Lernens auf sexuellen Kindesmissbrauch sind erheblich. Über 2,8 Millionen potenzielle Dateien zum sexuellen Kindesmissbrauch wurden über Safer gefunden. Durch ständige Innovation wurde Safer Essential eingeführt, eine API-basierte Lösung zur schnellen Erkennung von bekanntem Material zum sexuellen Kindesmissbrauch. Dies ist eine Zukunft, in der jedes Kind einfach nur Kind sein kann, und alles, was bei Thorn entwickelt wird, zielt darauf ab, diese Zukunft zu erreichen.
🚀 Teilnahme am Kampf gegen sexuellen Kindesmissbrauch
Wir alle haben eine Rolle im Kampf gegen sexuellen Kindesmissbrauch zu spielen. Inhaltsplattformen, Strafverfolgungsbehörden, Regierungen, Überlebendenhilfsdienste und die Gemeinschaft müssen zusammenarbeiten. Technologie kann ein mächtiges Werkzeug sein, aber allein reicht sie nicht aus. Wir müssen alle zusammenarbeiten, um dieses abscheuliche Verbrechen zu beenden.
🙋♀️ FAQ
F: Was ist der CESAM-Klassifikator?
A: Der CESAM-Klassifikator ist ein maschinelles Lernwerkzeug, das Material zum sexuellen Kindesmissbrauch erkennen, überprüfen und melden kann.
F: Wie funktioniert der Klassifikator?
A: Der Klassifikator verwendet Hashing und Abgleich, um bekanntes Missbrauchsmaterial zu finden, das bereits von einem Analysten verifiziert wurde, sowie um neues Missbrauchsmaterial zu finden.
F: Wie wird der Klassifikator trainiert?
A: Der Klassifikator wird vor Ort mit installierter Hardware trainiert.