Apple: iPhones vão procurar imagens de pornografia infantil

A Apple divulga num post, os mais recentes esforços da empresa relacionados com a proteção e segurança infantil. Com o lançamento do iOS 15, watchOS 8 e macOS Monterey no final deste ano, irão introduzir várias novas funcionalidades na aplicação de Mensagens, Fotos e Siri, destinadas a proteger as crianças de danos.

Num esforço para tornar o envio e a receção de fotografias sexualmente explícitas mais difícil para as crianças, as Mensagens incluirão agora avisos. Quando uma criança recebe ou envia imagens impróprias, estas notificações avisam-na de como os materiais sensíveis podem ser utilizados contra si: “A culpa não é sua, mas fotos e vídeos sensíveis podem ser usados para o magoar”.

Como segurança extra, a empresa diz que o telefone de uma criança notificará os pais se a criança avançar com a abertura de uma imagem que considere demasiado sensível, sendo que a Apple não terá acesso a quaisquer mensagens – o sistema é alimentado pela aprendizagem automática no dispositivo, pelo que pode diferenciar entre imagens inocentes de crianças a brincar em biquínis em piscinas e algum material pornográfico. Esta funcionalidade só funciona para contas iCloud familiares!

blank

A Apple irá lançar novas ferramentas de software em iOS e iPadOS que permitirão à empresa detetar quando alguém carrega conteúdo contendo imagens sexualmente explícitas de crianças. A tecnologia deteta este tipo de conteúdo através da análise de imagens iCloud, depois notificará o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) que podem tomar medidas em nome destas vítimas. “O método da Apple para detectar o conhecido CSAM [Material de Abuso Sexual Infantil] foi concebido tendo em mente a privacidade do utilizador,” afirma a Apple.

Em vez de digitalizar fotografias quando estas são carregadas para a nuvem, o sistema utilizará em vez disso uma base de dados de imagens “conhecidas” fornecidas pelo NCMEC e outras organizações. A empresa diz que esta base de dados atribui um hash às fotografias, que actua como uma espécie de impressão digital para elas.

Para este procedimento é utilizado uma tecnologia criptográfica chamada intersecção de conjunto privado, que permite verificar se existe uma correspondência sem ver o resultado do processo. Se assim for, um iPhone ou iPad criará uma chave criptográfica que encripta tanto a sua própria encriptação como metadados adicionais sobre a mesma para manter tudo seguro. Outra tecnologia chamada threshold secret sharing faz com que a empresa não possa ver o conteúdo dos vouchers, mas apenas se alguém ultrapassar um determinado limiar de CSAM. “O limiar é estabelecido para fornecer um nível extremamente elevado de precisão e assegura menos de uma hipótese em um trilião por ano de assinalar incorrectamente uma determinada conta”, de acordo com a empresa.

Só quando essa linha for ultrapassada é que a tecnologia que a Apple planeia implementar permitirá à empresa rever o conteúdo dos vouchers. Nesse momento, o gigante tecnológico diz que irá rever manualmente cada relatório para confirmar que existe uma correspondência. Nos casos em que exista uma, desactivará a conta iCloud e enviará um relatório à NEMEC. Os utilizadores podem recorrer da suspensão se acreditarem que a sua conta foi erroneamente assinalada.

blank

Com todas as preocupações de segurança que envolvem as nossas crianças e famílias, a Siri pode ajudar-nos a encontrar recursos úteis. Por exemplo, pode perguntar ao assistente digital da Apple como denunciar a exploração infantil tal como vista nos seus dispositivos, tais como computadores iPhone ou Mac. A Apple está também a planear atualizar a Siri para que esta intervenha quando uma pessoa tentar fazer qualquer investigação relacionada com a CSAM. O assistente explicaria então “que o interesse por este tópico é prejudicial e problemático”, bem como apontaria  para os recursos que oferecem ajuda na matéria.

A decisão da Apple de trabalhar com agências de aplicação da lei pode ser vista como um passo muito importante. Em 2016, recusaram-se a ajudar o FBI a desbloquear um iPhone pertencente ao homem por detrás do ataque terrorista do ano passado em San Bernardino. O CEO do Apple, Tim Cook disse que o recurso a uma empresa externa para violar as informações do iPhone é um assunto “arrepiante”, pois isso poderia criar portas traseiras e mais vigilância governamental no futuro.

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here