Inteligência Artificial está aprendendo a se explicar para os humanos

Laura Alvarenga

10 de abril de 2022

A iniciativa do LinkedIn de equiparar sua equipe de vendas a um software de inteligência artificial, capaz de analisar e obter resultados a respeito da propensão de cada cliente, pode revolucionar o mundo. Lançado em julho do ano passado, a inteligência estimula os usuários a apresentarem os trabalhos de modo útil.

publicidade
Inteligência Artificial está aprendendo a se explicar para os humanos

Inteligência Artificial está aprendendo a se explicar para os humanos. (Imagem: Pixabay)

Apesar de os cientistas especializados em inteligência artificial não terem enfrentado problemas na projeção do sistema capaz de fazer previsões precisas a respeito de todos os modelos de negócios, eles continuam descobrindo que, para tornar as ferramentas mais eficazes para operadores humanos, é preciso se explicar através de outro algoritmo. 

De acordo com a empresa, o campo emergente de “Explainable AI” ou XAI, teve o poder de estimular investimentos relevantes no Vale do Silício à medida que as startups e demais gigantes da tecnologia de nuvem investem em uma competição para descobrir qual delas conseguirá tornar o software opaco mais compreensível. 

O resultado foram debates intensos em Washington e Bruxelas, onde os reguladores pretendem assegurar que todas as decisões tomadas sejam automatizadas de modo justo e transparente.

publicidade

É importante explicar que a tecnologia de inteligência artificial tem o poder de perpetuar preconceitos sociais como os de raça, gênero e cultura. Enquanto isso, alguns cientistas enxergam as explicações apresentadas como uma etapa essencial para mitigar os resultados problemáticos. 

No que compete aos reguladores de proteção ao consumidor dos Estados Unidos da América (EUA), incluindo a Federal Trade Commission, foram emitidos vários alertas no decorrer dos últimos dois anos alegando que a inteligência artificial não pode ser explicada, mas pode ser investigada. 

Por outro lado, a União Europeia (UE) se empenha em aprovar a Lei de Inteligência Artificial até o ano que vem. E não é só isso, também deve ser apreciado um conjunto de requisitos abrangentes que incluem as interpretações feitas pelos usuários através de previsões automatizadas. 

O que dizem os críticos

Os defensores da inteligência artificial explicável alegam como ela auxiliou no aumento da eficácia de aplicação em áreas como saúde e vendas. Um exemplo é o Google Cloud, que atua na venda de serviços de IA explicáveis. 

Um exemplo é a informação aos clientes sobre as tentativas de aprimoramento dos sistemas em pixels e, em breve, quais exemplos de treinamento são cruciais na prevenção do tema de uma foto.

Ainda assim, os críticos dizem que as explicações que levaram a inteligência artificial a fazer previsões não são confiáveis, tendo em vista que a tecnologia de interpretação das máquinas não é poderosa o bastante.

O que você achou? Siga @bitmagazineoficial no Instagram para ver mais e deixar seu comentário clicando aqui

Jogos recomendados

Laura Alvarenga
Escrito por

Laura Alvarenga

Laura Alvarenga é graduada em Jornalismo pelo Centro Universitário do Triângulo em Uberlândia - MG. Iniciou a carreira na área de assessoria de comunicação, passou alguns anos trabalhando em pequenos jornais impressos locais e agora se empenha na carreira do jornalismo online através do portal FDR e Bit Magazine, onde pesquisa e produz conteúdo sobre economia, direitos sociais e finanças e tecnologia.