AWS re:Invent 2023 - Discurso del cliente Thorn

AWS re:Invent 2023 - Discurso del cliente Thorn

April 16, 2024
Compartir
autor: Big Y

Tabla de contenidos

1. Introducción

2. La gravedad del abuso sexual infantil

3. El poder del aprendizaje automático en la lucha contra el abuso sexual infantil

4. Construyendo el clasificador más seguro

5. Superando los desafíos en la preparación de datos

6. Entrenamiento y mantenimiento del clasificador

7. Retroalimentación del usuario y mejora continua

8. Implementación efectiva del modelo

9. Impacto e innovaciones futuras

10. Unirse a la misión de Thorn

Artículo

Introducción

🔍 **La gravedad del abuso sexual infantil**

El abuso sexual infantil es una realidad desgarradora que afecta a innumerables niños en todo el mundo. En este artículo, exploraremos el poder del aprendizaje automático en la lucha contra este crimen atroz y cómo organizaciones como Thorn están aprovechando la tecnología para marcar la diferencia.

La gravedad del abuso sexual infantil

🔍 **Comprendiendo el alcance del problema**

El abuso sexual infantil es un problema grave que exige nuestra atención. Imagina a un niño, como María, que se convierte en víctima de abuso sexual. Su abusador captura imágenes y videos del abuso, compartiéndolos en una plataforma de alojamiento de contenido. Estos materiales horripilantes se ocultan entre millones de otros archivos, lo que dificulta su identificación y rescate.

El poder del aprendizaje automático en la lucha contra el abuso sexual infantil

🔍 **Aprovechando la tecnología para salvar vidas**

Thorn, una organización sin fines de lucro, reconoce el poder del aprendizaje automático en la lucha contra el abuso sexual infantil. Mediante el aprovechamiento de los servicios de AWS, han desarrollado una herramienta integral llamada Safer. Esta herramienta utiliza algoritmos de aprendizaje automático para detectar, revisar e informar sobre material de abuso sexual infantil (CSAM).

Construyendo el clasificador más seguro

🔍 **Creando un imán poderoso**

El equipo de Thorn se embarcó en la construcción del clasificador más seguro, un componente crucial de su tecnología. Si bien las investigaciones existentes sobre redes neuronales convolucionales proporcionaron una base, Thorn se propuso desarrollar un clasificador que pudiera funcionar a escala de producción.

Superando los desafíos en la preparación de datos

🔍 **Navegando obstáculos legales y técnicos**

Uno de los desafíos significativos que enfrentó Thorn fue la naturaleza ilegal del CSAM. Almacenar estos datos requería colaboración con organizaciones autorizadas para manejar contenido tan sensible. Al invertir en hardware en el lugar y utilizar ECR de Amazon, Thorn garantizó el entrenamiento seguro y la distribución de su clasificador.

Entrenamiento y mantenimiento del clasificador

🔍 **El proceso de aprendizaje continuo**

El entrenamiento del clasificador implicó una meticulosa preparación de datos. Se emplearon técnicas como el hash perceptual para garantizar conjuntos de entrenamiento, prueba y validación distintos. Amazon S3 desempeñó un papel crucial en el almacenamiento de material de abuso y no abuso, lo que permitió un entrenamiento exhaustivo.

Retroalimentación del usuario y mejora continua

🔍 **Refinando el rendimiento del clasificador**

Thorn valora la retroalimentación del usuario como una fuente vital de mejora. A través de los servicios Safer alojados en AWS, los usuarios pueden enviar falsos positivos, que son invaluables para el reentrenamiento dirigido. Supervisar el rendimiento, abordar los sesgos y actualizar los datos de entrenamiento son pasos esenciales para mantener un clasificador efectivo.

Implementación efectiva del modelo

🔍 **Equilibrando la privacidad y el impacto**

Los ingenieros de Thorn priorizan la privacidad y la participación humana en la implementación del clasificador. Los usuarios tienen control total sobre cuándo y cómo se revisa e informa el contenido. El clasificador actúa como un imán poderoso, pero el juicio humano sigue siendo crucial para garantizar precisión y manejo ético.

Impacto e innovaciones futuras

🔍 **Transformando vidas y construyendo un futuro mejor**

El impacto del trabajo de Thorn es profundo. Se han identificado más de 2,8 millones de posibles archivos de abuso sexual infantil a través de Safer. Thorn continúa innovando, lanzando recientemente Safer Essential, una solución basada en API para la detección rápida de CSAM conocido. Su misión es crear un futuro en el que cada niño pueda simplemente ser un niño, libre de los horrores del abuso.

Unirse a la misión de Thorn

🔍 **Hacer la diferencia juntos**

La misión de Thorn requiere un esfuerzo colectivo. Plataformas de alojamiento de contenido, fuerzas del orden, agencias gubernamentales, servicios para sobrevivientes y la comunidad deben unirse para combatir el abuso sexual infantil. Puedes unirte a la causa de Thorn visitando su sitio web en thor.org, aprendiendo sobre los desafíos que enfrentan estos niños y utilizando tus habilidades para contribuir a sus soluciones impulsadas por la tecnología.

Aspectos destacados

- El aprendizaje automático y la inteligencia artificial desempeñan un papel crucial en la lucha contra el abuso sexual infantil.

- El clasificador Safer de Thorn es una herramienta poderosa para detectar e informar sobre material de abuso sexual infantil.

- Se han identificado más de 2,8 millones de posibles archivos de abuso sexual infantil a través de Safer.

- La retroalimentación del usuario y la mejora continua son esenciales para refinar el rendimiento del clasificador.

- La implementación efectiva del modelo garantiza la privacidad y la participación humana en el proceso de revisión.

- La misión de Thorn requiere la colaboración de diversas partes interesadas para lograr un impacto duradero.

Preguntas frecuentes

**P: ¿Cómo funciona el clasificador Safer de Thorn?**

R: El clasificador Safer de Thorn utiliza algoritmos de aprendizaje automático para detectar e informar sobre material de abuso sexual infantil. Analiza imágenes y videos para identificar posibles casos de abuso, ayudando a las fuerzas del orden y las organizaciones a tomar medidas.

**P: ¿Los usuarios pueden proporcionar comentarios sobre falsos positivos?**

R: Sí, los usuarios pueden enviar falsos positivos a través de los servicios Safer alojados en AWS de Thorn. Estos falsos positivos son valiosos para el reentrenamiento dirigido, lo que mejora la precisión del clasificador.

**P: ¿Cómo garantiza Thorn la privacidad y el manejo ético del contenido sensible?**

R: Los ingenieros de Thorn priorizan la privacidad y la participación humana en la implementación del clasificador. Los usuarios tienen control total sobre cuándo y cómo se revisa e informa el contenido, lo que garantiza un manejo responsable.

**P: ¿Cuál es la visión de Thorn para el futuro?**

R: Thorn visualiza un futuro en el que cada niño pueda simplemente ser un niño, libre de los horrores del abuso. Continúan innovando para lograrlo, recientemente lanzando Safer Essential, una solución basada en API para la detección rápida de CSAM conocido.

- End -
VOC AI Inc. 8 The Green,Ste A, in the City of Dover County of Kent, Delaware Zip Code: 19901 Copyright © 2024 VOC AI Inc.All Rights Reserved. Términos y condiciones Política de privacidad
Este sitio web utiliza cookies
VOC AI utiliza cookies para garantizar que el sitio web funcione correctamente, para almacenar cierta información sobre sus preferencias, dispositivos y acciones anteriores. Estos datos son agregados o estadísticos, lo que significa que no podremos identificarle individualmente. Puede encontrar más información sobre las cookies que utilizamos y sobre cómo retirar su consentimiento en nuestro Política de privacidad.
Utilizamos Google Analytics para mejorar la experiencia del usuario en nuestro sitio web. Al continuar utilizando nuestro sitio, usted acepta el uso de cookies y la recopilación de datos por parte de Google Analytics.
¿Está de acuerdo en aceptar estas cookies?
Aceptar todas las cookies
Rechazar todas las cookies