Apple é processada por permitir a disseminação de conteúdo de abuso sexual infantil

 William Schendes
William Schendes

A Apple está sendo processada nos Estados Unidos por não utilizar tecnologias de rastreamento de materiais de abuso sexual infantil (CSAM, na sigla em inglês) no iCloud, o que teria colaborado para a disseminação desses conteúdos.

A ação judicial foi aberta no norte da Califórnia no último sábado por uma mulher não identificada, que foi molestada por um parente quando era criança. O agressor tirou fotos do crime e as compartilhou online, intensificando tanto a gravidade do crime quanto o sofrimento da vítima.

A mulher afirma receber notificações policiais quase diariamente sobre pessoas acusadas de armazenar as imagens de seu abuso.

A vítima acusa a Apple de permitir a proliferação desse tipo de material por não implementar ferramentas de identificação, remoção e denúncia de conteúdos ilegais. Segundo o advogado James Marsh, em entrevista ao The New York Times, o objetivo do processo é mudar as práticas da Apple e compensar cerca de 2.680 vítimas de casos semelhantes. Estima-se que a empresa possa ser condenada a pagar mais de US$ 1,2 bilhão em indenizações ao grupo afetado.

Processo Apple iCloud
(Imagem: zhang kaiyv/ Unsplash)

Em 2021, a Apple anunciou um recurso de detecção de materiais de abuso infantil no iCloud, em parceria com o Centro Nacional para Crianças Desaparecidas e Exploradas dos Estados Unidos. Entre as funcionalidades previstas estavam a identificação e denúncia de conteúdos criminosos armazenados no iCloud, além de uma ferramenta para bloquear fotos sexualmente explícitas enviadas ou recebidas por contas infantis no iMessage.

Entretanto, em dezembro de 2022, a empresa abandonou a iniciativa, justificando que especialistas em segurança e defensores de privacidade alertaram para o risco de uso inadequado da tecnologia por agentes governamentais.

Ao The New York Times, o porta-voz da Apple Fred Sainz deu a seguinte resposta sobre a abertura do processo:

“Material de abuso sexual infantil é abominável e estamos comprometidos em lutar contra as formas como predadores colocam crianças em risco. Estamos inovando urgente e ativamente para combater esses crimes sem comprometer a segurança e a privacidade de todos os nossos usuários.”

Para ficar por dentro das principais notícias de tecnologia, siga o TechShake no Instagram.

VEJA TAMBÉM!

 William Schendes
William Schendes
Jornalista e redator de conteúdo. Cobre tecnologia, games e cibersegurança desde 2022. No TechShake, acompanha e escreve sobre notícias do mundo tech, mas também produz reportagens, reviews, artigos especiais e tutoriais. Tem uma sugestão de pauta ou release? Mande para williamschendesps@outlook.com
recomenda: