Forbes, a mais conceituada revista de negócios e economia do mundo.
A IA está, sem dúvida, transformando nossas vidas, mas ainda há muito exagero em torno dela. Uma das narrativas mais populares hoje é a de que as máquinas são capazes de entender os sentimentos e emoções humanas.
Esta área é conhecida como “computação afetiva”, um campo de pesquisa e desenvolvimento voltado a interpretar, simular e prever sentimentos e emoções, na tentativa de navegar pelo complexo e muitas vezes imprevisível universo da psique humana.
A expectativa é a de que a IA seja capaz de perceber emoções, o que levará a aplicações mais úteis, acessíveis e seguras. Mas será que uma máquina pode realmente entender uma emoção?
Esta dúvida não impediu as empresas de investirem bilhões na criação de ferramentas e sistemas projetados para reconhecer nossos sentimentos, responder com empatia ou até mesmo “conquistar” os corações humanos.
Então, a verdadeira pergunta é: Podemos confiar em sistemas que detectam emoções mesmo sem que consigam experimentar essas emoções?
Como a computação afetiva funciona
Primeiro: o que “emoções” significam no contexto das máquinas? Bem, a resposta simples é que, para as máquinas, emoções são apenas mais uma forma de dado.
A computação afetiva se concentra em detectar, interpretar e responder a dados sobre os estados emocionais humanos. Esses dados podem ser coletados a partir de gravações de voz, algoritmos de reconhecimento de imagem treinados com dados faciais, análise de textos escritos ou até da forma como movimentamos o mouse e clicamos ao fazer compras online.
Também podem incluir dados biométricos, como frequência cardíaca, temperatura da pele e atividade elétrica do corpo.
Ferramentas de IA emocional analisam padrões nesses dados e os usam para interpretar ou simular interações conosco. Isso pode incluir bots de atendimento ao cliente detectando frustração ou sistemas veiculares que percebem e reagem ao estado mental do motorista.
Mas emoções são complexas, altamente sujeitas à interpretação (inclusive entre diferentes regiões geográficas e culturas). Por isso, é crucial que elas não sejam mal interpretadas.
Existe ética na “IA Sentimental”?
Utilizar a tecnologia para prever sentimentos levanta questões éticas importantes: é certo permitir que máquinas tomem decisões que podem afetar nossas vidas quando nem mesmo compreendemos totalmente a capacidade delas de nos entender?
Por exemplo, podemos permitir que uma máquina nos faça sentir cautela — ou até medo — como forma de nos alertar sobre um perigo? Como ela saberá o limite para evitar traumas?
E será que chatbots e IAs projetados para atuar como namorados, parceiras ou amantes entenderão as implicações de provocar ou manipular emoções humanas como amor, ciúmes ou atração sexual?
Superestimar a capacidade das máquinas de compreender nossas emoções representa riscos específicos que precisam ser considerados com seriedade.
Por exemplo, se as pessoas acreditam que a IA entende ou tem empatia por elas em um grau maior do que realmente acontece, não se pode dizer que elas estão plenamente informadas ao confiar nas decisões da tecnologia.
Isso pode ser considerado uma forma de manipulação — especialmente quando o verdadeiro objetivo da IA não for ajudar o usuário, mas sim induzir consumo, engajamento ou influência.
Riscos e recompensas
Desenvolver ferramentas de IA que interpretam sentimentos é um grande negócio, visto como uma forma de oferecer experiências mais personalizadas e envolventes, além de prever — ou até influenciar — nosso comportamento.
Em São Paulo, por exemplo, câmeras foram usadas no metrô para detectar a resposta emocional dos passageiros a anúncios publicitários.
Em um caso controverso, a operadora ferroviária britânica Network Rail teria enviado dados em vídeo de passageiros para o serviço de análise emocional da Amazon sem o consentimento dos envolvidos.
O aumento da presença dessa tecnologia e seu potencial invasivo fez com que legisladores, em algumas regiões, agissem. A lei de IA da União Europeia, por exemplo, proíbe o uso da tecnologia para detectar emoções em ambientes de trabalho e escolas.
Um dos motivos é o risco de viés — já foi demonstrado que a precisão da IA em detectar emoções varia de acordo com raça, idade e gênero. No Japão, por exemplo, o sorriso é usado com mais frequência para disfarçar emoções negativas do que em outras partes do mundo.
Isso abre caminho para que a IA alimente novas formas de discriminação — uma ameaça que precisa ser compreendida e evitada.
Possíveis aplicações seguras
Apesar das oportunidades perigosas que certamente serão aproveitadas por quem tem más intenções, a computação afetiva pode ser a chave para terapias mais eficazes e para melhorias em eficiência, conveniência e segurança nos serviços que utilizamos.
Caberá a nós — como desenvolvedores, reguladores ou simplesmente usuários da IA — garantir que essas novas capacidades tecnológicas sejam integradas à sociedade de forma responsável.
O post Por Que a IA Nunca Vai Entender os Sentimentos Humanos apareceu primeiro em Forbes Brasil.