🔍 Utilizando Aprendizado de Máquina para Combater o Abuso Sexual Infantil
O abuso sexual infantil é um crime hediondo que afeta milhões de crianças em todo o mundo. A internet facilitou para os abusadores compartilharem imagens e vídeos de seus crimes, tornando difícil para as agências de aplicação da lei rastrear e resgatar as vítimas. No entanto, a tecnologia também pode ser usada para combater esse problema. Neste artigo, vamos explorar como o aprendizado de máquina pode ser usado para detectar, revisar e relatar material de abuso sexual infantil (CSAM) em grande escala.
Índice
- Introdução
- A Gravidade do Nosso Trabalho
- O Desafio de Encontrar e Parar o Abuso Sexual Infantil
- O Papel do Aprendizado de Máquina no Combate ao Abuso Sexual Infantil
- Construindo um Classificador para Detectar Novo Material de Abuso
- Superando os Obstáculos de Trabalhar com Dados Ilegais
- O Ciclo de Vida do Aprendizado de Máquina
- Implantação Efetiva do Modelo
- Impacto do Aprendizado de Máquina no Combate ao Abuso Sexual Infantil
- Safer Essential: Uma Solução Baseada em API para Detecção Rápida de CSAM Conhecido
- Juntando-se à Luta Contra o Abuso Sexual Infantil
A Gravidade do Nosso Trabalho
A história de Maria, uma criança que estava sendo abusada sexualmente e cujo abusador estava compartilhando imagens e vídeos do abuso em uma plataforma de hospedagem de conteúdo, é um lembrete contundente da gravidade do nosso trabalho. O abusador de Maria estava escondido à vista de todos, entre centenas de milhões de outras imagens e vídeos. No entanto, a plataforma que hospedava o conteúdo usava o produto Safer da Thorn, que utiliza um classificador de material de abuso sexual infantil (CSAM) mais seguro para encontrar imagens e vídeos que poderiam mostrar uma criança em uma situação de abuso ativo.
Um dia, o classificador alertou a plataforma sobre um usuário que havia compartilhado mais de 2.000 novos arquivos de abuso. Ficou claro que uma criança estava sendo abusada, então a plataforma comunicou o caso às autoridades policiais, que iniciaram uma investigação. Graças ao classificador, a criança no conteúdo foi encontrada e uma prisão foi feita. Para Maria, um futuro mais brilhante surgiu.
O Desafio de Encontrar e Parar o Abuso Sexual Infantil
De acordo com o Centro Nacional de Crianças Desaparecidas e Exploradas, em 2022, eles receberam mais de 88 milhões de arquivos de suspeita de abuso sexual infantil relatados por plataformas online. Esses não são apenas arquivos; são crianças que precisam desesperadamente de ajuda. Com 88 milhões de arquivos, mesmo apenas um segundo de revisão por arquivo levaria quase três anos de revisão contínua. Não podemos permitir que nenhuma criança tenha que esperar tanto tempo para obter ajuda.
O Papel do Aprendizado de Máquina no Combate ao Abuso Sexual Infantil
Como tecnólogos, temos o poder de acabar com o pesadelo da vida real de uma criança. Mas como encontrá-las e interromper o ciclo de trauma? A resposta para essas perguntas está enterrada em montanhas de dados. O aprendizado de máquina é uma parte essencial da solução.
Algoritmos de aprendizado de máquina podem analisar grandes quantidades de dados e identificar padrões que os humanos podem não perceber. No caso do CSAM, o aprendizado de máquina pode ser usado para detectar, revisar e relatar conteúdo abusivo em grande escala. No entanto, construir um modelo de aprendizado de máquina para detectar CSAM não é uma tarefa fácil.
Construindo um Classificador para Detectar Novo Material de Abuso
Ao construir um classificador para detectar novo material de abuso, seguimos o processo CRISP-DM. Os dados são a parte mais crucial desse processo. No entanto, os dados de que precisamos são ilegais. O CSAM é ilegal e não podemos armazená-lo nos mesmos lugares ou da mesma maneira que outros conteúdos. Para superar esse obstáculo, colaboramos com organizações com o direito legal de abrigar esses dados. Investimos em hardware instalado no local, treinamos o classificador localmente e, em seguida, usamos o ECR da Amazon para distribuir o modelo treinado para os usuários finais.
Superando os Obstáculos de Trabalhar com Dados Ilegais
A preparação dos dados é fundamental ao trabalhar com dados ilegais. Usamos técnicas como hash perceptual para duplicar o conjunto de dados, garantindo que não haja sobreposição entre os conjuntos de treinamento, teste e validação. Usamos o Amazon S3 para armazenar nosso material não abusivo, que é tão importante quanto o material de abuso para treinar nosso classificador.
O treinamento do modelo via acesso remoto a uma solução local pode ser lento e opaco. Usamos o Amazon EC2 e o EKS para fazer P&D com dados benignos primeiro, depurando e corrigindo quaisquer problemas que possamos encontrar em nosso pipeline de treinamento antes de treinar localmente.
O Ciclo de Vida do Aprendizado de Máquina
No ciclo de vida do aprendizado de máquina e IA, que envolve desenvolvimento, implantação e manutenção, a parte de manutenção é fundamental. Os modelos ficam obsoletos e têm viés. Monitorar o desempenho e realizar treinamentos regulares é essencial. Equilibramos nossos conjuntos de dados, ajustamos o peso do modelo, atualizamos nosso conjunto de treinamento com novas imagens e realizamos retreinamentos.
Implantação Efetiva do Modelo
A implantação efetiva do modelo é fundamental. Trabalhando em colaboração com engenharia e produto para encontrar a solução certa para as necessidades do usuário, implantamos o classificador de forma que o cliente tenha controle total sobre quando e como o conteúdo é revisado e relatado. O classificador age como um poderoso ímã, mas deve ser relatado por humanos.
Impacto do Aprendizado de Máquina no Combate ao Abuso Sexual Infantil
O impacto do aprendizado de máquina no combate ao abuso sexual infantil é significativo. O Safer, nossa ferramenta completa para detectar, revisar e relatar CSAM, encontrou mais de 2,8 milhões de arquivos em potencial de abuso sexual infantil. Este é um futuro onde cada criança é livre para ser simplesmente uma criança. Tudo o que construímos na Thorn é para chegar a esse futuro.
Safer Essential: Uma Solução Baseada em API para Detecção Rápida de CSAM Conhecido
Neste mês, lançamos o Safer Essential, uma solução baseada em API para detecção rápida de CSAM conhecido. Isso é inovação constante e estamos orgulhosos de estar na vanguarda dessa luta.
Juntando-se à Luta Contra o Abuso Sexual Infantil
Todos nós temos um papel a desempenhar na luta contra o abuso sexual infantil. Plataformas de hospedagem de conteúdo, aplicação da lei, governo, serviços de apoio a sobreviventes e a comunidade, incluindo você, podem fazer a diferença. Junte-se à Thorn em nossa missão de combater o abuso sexual infantil. Visite nosso site para mais informações.