Decepcionando especialistas! O reconhecimento facial para identificar emoções é falho

Laura Alvarenga

23 de junho de 2022

Às vezes a tecnologia pode ser assustadora e muitas pessoas ainda não se habituaram a essa evolução. O desconforto surge, especialmente quando alguém é exposto à ferramenta de reconhecimento facial com capacidade de identificar emoções. 

publicidade
Instabilidade na ferramenta de reconhecimento facial com identificação de emoções desaponta especialistas

Instabilidade na ferramenta de reconhecimento facial com identificação de emoções desaponta especialistas. (Imagem: Freepik)

Resultados decepcionantes

A crença é de que a inteligência artificial do reconhecimento facial pode ser um tanto invasiva, sobretudo quando há algo que se deseja esconder. Essa tecnologia pode escanear o rosto de uma pessoa e identificar emoções como nervosismo, medo, insegurança, empatia, confiança e muito mais. 

Parece a cena de filme futurístico, mas a verdade é que essa tecnologia já faz parte da realidade que conhecemos hoje, explorada constantemente, com ou sem o consentimento das pessoas. 

O reconhecimento facial com suporte para identificar emoções compõem uma indústria multibilionária e com enorme potencial de expansão. Entretanto, a ciência por trás desses sistemas ainda está longe da precisão, evidenciando a controversa através de preconceitos embutidos na programação. 

publicidade

Neste sentido, o The Verge informou que a Microsoft já deu início à eliminação gradual do acesso público a uma variedade de ferramentas de análise facial com inteligência artificial, incluindo o reconhecimento facial de emoções a partir de fotos e vídeos. 

Especialistas criticam essa ferramenta alegando que as expressões faciais possuem muitas distinções, portanto, não é cientificamente correto igualar demonstrações externas de emoções com suas versões internas

Para a professora de psicologia da Northeastern University, Lisa Feldman Barrett, a revisão sobre o reconhecimento facial com emoções indica que as empresas têm autonomia para dizerem o que bem entenderem, tendo em vista que os dados são claros. 

“Eles podem detectar uma carranca, mas isso não é a mesma coisa que detectar raiva”, explicou. 

Instabilidade do reconhecimento facial

Um exemplo de uso da tecnologia de reconhecimento facial é quando empresas querem testar as reações dos clientes sobre os produtos, normalmente é uma prática comum no ramo de cereais e videogames. 

Por outro lado, o sistema também pode ser submetido a riscos mais intensos, como na contratação, segurança de aeroportos, controle de fronteiras, policiamento, educação e muito mais. 

Recentemente, o The Conversation, revelou informações a respeito do viés algorítmico e conjuntos de dados discriminatórios em torno dessa inteligência artificial. 

Ela foi responsável por levar grandes empresas de tecnologia como a Microsoft, Amazon e IBM a suspenderem as vendas de produtos com tal composição, enquanto enfrentam desafios legais em decorrência do policiamento sobre o uso no Reino Unido, por exemplo. 

Foram identificados dois meios prejudiciais de uso dessa tecnologia. Para a pesquisadora de inteligência artificial Deboroah Raji em entrevista ao MIT Technology Review:

“Uma maneira é não funcionar em virtude de ter taxas de erro mais altas para pessoas de cor, isso as coloca em maior risco. A segunda situação é quando funciona, onde você tem o sistema de reconhecimento facial perfeito, mas é facilmente armado contra as comunidades para assediá-las”, ponderou.

O que você achou? Siga @bitmagazineoficial no Instagram para ver mais e deixar seu comentário clicando aqui

Jogos recomendados

Laura Alvarenga
Escrito por

Laura Alvarenga

Laura Alvarenga é graduada em Jornalismo pelo Centro Universitário do Triângulo em Uberlândia - MG. Iniciou a carreira na área de assessoria de comunicação, passou alguns anos trabalhando em pequenos jornais impressos locais e agora se empenha na carreira do jornalismo online através do portal FDR e Bit Magazine, onde pesquisa e produz conteúdo sobre economia, direitos sociais e finanças e tecnologia.