Apple desiste do plano ambicioso no iCloud que deixaria o ambiente online mais seguro

Moyses Batista

9 de dezembro de 2022

A Apple, uma gigante da tecnologia, anunciou que abandonou oficialmente um plano apresentado há cerca de um ano. A empresa tinha a intenção de escanear fotos no iCloud em busca de conteúdos de abuso sexual infantil (ou CSAM). Você confere agora que fim levou este recurso, e o motivo por trás disso.

publicidade
Apple desiste do plano

Apple desiste do plano – Imagem: Reprodução/Pexels

Por que a Apple desistiu?

A Apple oficializou que não tem mais a intensão de seguir com um plano de digitalizar imagens do iCloud. Assim, a empresa faria uma varredura em cada galeria, para encontrar qualquer arquivo de abuso sexual infantil (CSAM). O anúncio do projeto veio em agosto do ano passado e gerou muito burburinho.

Esta seria uma escolha muito controversa da empresa que levanta a bandeira da privacidade. Na prática, este recurso escanearia os aparelhos, e se encontrasse evidências de CSAM, ele acionaria técnicos humanos.

Desse modo, especialistas em segurança e privacidade argumentaram que a ferramenta poderia ser usada para localizar outros tipos de conteúdos.

publicidade

Além disso, era uma escolha que estava a um passo de cometer maiores abusos de vigilância. Outro ponto em questão, é que este meio poderia ser facilitador para investigações policiais.

Apesar da crítica em massa, a Apple bateu os pés inicialmente e defendeu a sua proposta. Após um ano, a empresa pensou melhor e decidiu que de fato a melhor opção seria dar outro rumo para o recurso.

A data do lançamento vai chegar?

A primeira vez que a Apple sinalizou uma pausa neste recurso, foi em setembro de 2021, exatamente um mês após o primeiro anúncio. Entretanto, se havia alguma esperança da ferramenta ser lançada, a empresa confirmou para o Wired que atualmente o projeto morreu.

A intenção da Apple está alinhada com inúmeras big techs, que têm se movido para combater o CSAM. Contudo, existe uma linha muito tênue entre varredura em busca de conteúdo ilícito e invasão de privacidade. Por este motivo, o passo em direção ao combate a este tipo de material tem se desenvolvido com cautela.

Em um comunicado fornecido ao Wired, a Apple informou sobre a sua decisão, alegando que a escolhe veio a partir de feedbacks dados por especialistas, e disse mais:

“Decidimos ainda não avançar com nossa ferramenta de detecção de CSAM proposta anteriormente para o iCloud Photos. As crianças podem ser protegidas sem que as empresas vasculhem dados pessoais.

Continuaremos trabalhando com governos, defensores da criança e outras empresas para ajudar a proteger os jovens, preservar seu direito à privacidade e tornar a Internet um lugar mais seguro para as crianças e para todos nós.”

Com informações: Gizmodo, Wired

O que você achou? Siga @bitmagazineoficial no Instagram para ver mais e deixar seu comentário clicando aqui

Jogos recomendados

Moyses Batista
Escrito por

Moyses Batista