Gênero

Os riscos de usar a IA para interpretar as emoções humanas

Mark Purdy, John Zealley e Omaro Maseli
17 de dezembro de 2019

O que realmente as pessoas sentem?

Isso nunca foi uma tarefa fácil para as empresas identificarem. Por uma única razão, as emoções são intrinsecamente difíceis de interpretar. Outra razão é que há sempre uma falta de conexão entre o que as pessoas dizem que sentem e o que elas realmente sentem.

Leia também:

Aprenda a trabalhar com máquinas inteligentes

A Inteligência Artificial é capaz de superar os médicos, mas por que os pacientes não confiam nessa tecnologia?

Imagine como as pessoas respondem aos comerciais do Super Bowl. Em 2018, os telespectadores votaram pelo “Alexa Loses Her Voice” – quando as celebridades tentam (sem sucesso) substituir o Alexa – como o melhor comercial, de acordo com o USA Today Ad Meter. O “Groove”, da Coca Diet, que apresentava uma mulher dançando de forma estranha após beber uma latinha de Coca Diet Twisted Mango, foi classificado como o pior comercial. Com base nessa pesquisa, seria possível concluir que o comercial do Alexa teve um impacto maior. Não é exatamente assim, de acordo com Paul Zak, pesquisador de neurociência e diretor do Immersion Neuroscience, cuja equipe estudou a imersão neurológica das pessoas nas propagandas, A equipe de Zak avaliou o nível de engajamento emocional dos espectadores medindo as alterações dos níveis de oxitocina, a “assinatura neural da ressonância emocional” do cérebro. A pesquisa concluiu que o “Groove” na verdade teve maior impacto – comprovando para Zak que para os comerciais do Super Bowl, não “existe nenhuma correlação” entre o que as pessoas dizem e como elas sentem ao nível do subconsciente.

Quando entrevistamos Zak para sabermos sobre esse fenômeno, ele resumiu dizendo: “as pessoas mentem; seus cérebros, não”.

Muitas empresas usam grupos e pesquisas dedicados para entender como as pessoas se sentem. Agora, a tecnologia emocional da IA pode ajudar as empresas a capturar as reações emocionais em tempo real – decodificando expressões faciais, analisando padrões de voz, monitorando os movimentos dos olhos e medindo os níveis de imersão neurológica, por exemplo. O resultado é uma compreensão melhorada sobre seus clientes – e até mesmo de seus funcionários.

Os riscos dos vieses da IA emocional

Devido à natureza subjetiva das emoções, a IA emocional é especialmente propensa a vieses. Por exemplo, um estudo concluiu que a tecnologia da análise emocional atribui mais emoções negativas às pessoas de algumas etnias do que para outras. Imagine as ramificações no local de trabalho, com um algoritmo identificando de forma consistente um indivíduo como portador de emoções negativas que poderia afetar a progressão de carreira.

A IA geralmente não é sofisticada o suficiente para entender as diferenças culturais ao expressar e ler emoções, dificultando a tarefa de tirar conclusões precisas. Por exemplo, um sorriso pode significar uma coisa na Alemanha e outra no Japão. A confusão desses significados pode levar as empresas a tomarem decisões errôneas. Imagine um turista japonês que necessita de ajuda durante uma visita a uma loja em Berlin. Se a loja usou reconhecimento emocional para priorizar a quais clientes deve dar suporte, o funcionário da loja pode confundir esse sorriso – um sinal de educação no país de origem do turista – como uma indicação de que não precisa de ajuda.

Resumindo, se deixado sem abordagem, o viés emocional consciente ou inconsciente pode perpetuar os estereótipos e suposições em uma escala sem precedentes.

Como as empresas podem impedir que os vieses penetrem em casos de uso comum

Com base em nossa pesquisa e experiência trabalhando com clientes globais, observamos as empresas utilizarem a tecnologia de IA emocional de quatro maneiras. Através de cada uma, as implicações dos vieses de algoritmo são um lembrete claro de que os líderes de empresas e de tecnologia devem compreender, e evitar que esses vieses interfiram em suas conclusões.

Entender o nível real de engajamento emocional dos funcionários. Quando a IA é usada para medir as emoções do funcionário, isso pode ter sérios impactos na maneira como o trabalho é alocado. Por exemplo, os funcionários sempre pensam que estão na função certa, mas ao tentar novos projetos, podem achar que suas habilidades estão mais alinhadas em outro lugar. Algumas empresas já permitem que os funcionários experimentem diferentes funções uma vez por mês para observarem de quais postos de trabalho mais gostam. Eis aqui onde o viés na IA poderia reforçar estereótipos já existentes. Por exemplo, nos EUA, onde 89% dos engenheiros civis e 81% dos policiais e supervisores de detetives são do sexo masculino, um algoritmo que foi condicionado para analisar características masculinas pode ter dificuldade em ler respostas emocionais e níveis de envolvimento entre mulheres interessadas nessas ocupações. Isso poderia causar erro na alocação de cargos e decisões de treinamento.

Melhorar a capacidade para criar produtos que se adaptem às emoções do consumidor. Com o monitoramento das emoções, os desenvolvedores de produtos podem aprender quais recursos provocam mais empolgação e envolvimento dos usuários. Tome como exemplo a Plataforma automotiva de IA do Affectiva, que pode reconhecer emoções como alegria e raiva e adaptar o ambiente interno de um veículo com base nesses dados. Câmeras e microfones podem detectar o nível de sonolência do passageiro – e, com isso, podem diminuir a temperatura ou fazer vibrar o cinto de segurança. Um assistente inteligente pode mudar o tom da resposta para um passageiro frustrado. Com a IA emocional, qualquer produto ou serviço – dentro de um carro, querem outro local – pode se tornar uma experiência adaptativa. No entanto, um viés no ambiente da cabine veicular pode significar que alguns passageiros podem ser mal interpretados. Pessoas idosas, por exemplo, podem ter maior probabilidade de ser identificadas erroneamente como tendo fadiga de direção (quanto mais idoso é o rosto, menos provavelmente as expressões são decodificadas com precisão). E, à medida que esses sistemas se tornam mais lugar comum, as seguradoras irão querer uma parcela desses dados. Isso pode significar maiores prêmios para pessoas com mais idade, uma vez que os dados poderiam sugerir que, apesar das mensagens para relaxar, o motorista decidiu acelerar mais ainda.

Melhoria das ferramentas para medir a satisfação do cliente. Companhias como a Cogito, uma startup com sede em Boston, estão oferecendo às empresas as ferramentas para seus funcionários interagirem melhor com os clientes. Seus algoritmos podem não apenas identificar “fadiga por compaixão” nos agentes de atendimento ao cliente, mas também podem orientar os agentes sobre como responder às chamadas por meio de um aplicativo. Um cliente aborrecido pode, por exemplo, ligar para reclamar de um produto. Ao gravar e analisar a conversa, a plataforma da Cogito pode, em seguida, sugerir que o agente desacelere ou comunicar a ele quando exibir empatia. Um algoritmo com viés, talvez distorcido por um sotaque ou por uma voz mais profunda, pode resultar em alguns clientes sendo tratados melhor do que outros – afugentando aqueles que sofrem o impacto do mau tratamento para longe da marca. Uma chamada feita por um cliente do sexo masculino pode estar sujeita a menos empatia que uma feita por uma mulher, reforçando as percepções sociais dos homens como “emocionalmente fortes”. Por outro lado, uma chamada feita por uma pessoa do sexo feminino pode ser analisada como um negociador menos duro, resultando na oferta de uma compensação menor. Ironicamente, os próprios agentes podem até mesmo não possuir esses vieses, mas, iludidos pela falsa ideia de que os algoritmos são altamente precisos, eles podem seguir seus conselhos cegamente. Dessa forma, os vieses espalham-se, sem questionamentos e de forma sistemática.

A transformação da experiência de aprendizado. Os insights emocionais poderiam ser usados para aumentar a experiência de aprendizado em todas as idades. Isso poderia, por exemplo, permitir que os professores planejassem aulas que estimulassem o máximo engajamento, inserindo informações importantes nos picos de engajamento e alternando o conteúdo nos picos mínimos. Isso também oferece insights aos próprios alunos, ajudando a identificar quem precisa de mais atenção. A China está introduzindo sistemas de detecção de emoção nas salas de aula para monitorar o nível de atenção dos alunos. Entretanto, os vieses existem, sugerindo de forma errônea que alguém está desatento, o que poderia resultar em experiências de aprendizado projetadas para alguns grupos e não para outros. Imagine diferentes estilos de aprendizado: Algumas pessoas são aprendizes visuais. Algumas aprendem com a experiência. Outras tendem à concentração solitária intensa . Mas um algoritmo, talvez projetado por um aprendiz visual, possa omitir ou fazer uma má interpretação desses detalhes. Leituras incorretas de engajamento podem afetar os resultados da aprendizagem até no local de trabalho, o que significa que, mesmo em programas de treinamento, apenas uma fração dos funcionários pode desfrutar de pleno desenvolvimento profissional. Esses erros de interpretação podem afetar os resultados da aprendizagem até no local de trabalho, o que significa que, mesmo em programas de treinamento, apenas uma fração dos funcionários pode desfrutar de pleno desenvolvimento profissional.

Evitar vieses da IA

À medida que mais e mais empresas incorporam a IA emocional em suas operações e produtos, será imperativo que elas estejam conscientes dos vieses incluídos no processo e que trabalhem ativamente para evitá-los.

Quer sejam devido à natureza subjetiva das emoções, quer sejam as discrepâncias nas emoções, fica claro que a detecção de emoções não é uma tarefa fácil. Algumas tecnologias são melhores que outras para monitorar certas emoções, portanto combinar essas tecnologias poderia melhorar a mitigar esses vieses. Na realidade, um estudo da Nielsen que testou a precisão das tecnologias de neurociência, como codificação facial, biometria e eletroencefalografia (EEG), revelou que, quando usadas separadamente, os níveis de precisão foram de 9%, 27% e 62%, respectivamente. Quando combinadas, os níveis de precisão sobem para 77%. Ao testar os resultados de uma pesquisa, o nível pulou para 84%. Portanto, tais combinações servem como uma verificação da precisão dos resultados – um tipo de sistema de referência.

Contudo, contabilizar nuances culturais em algoritmos precisará mais do que apenas combinar e referenciar várias tecnologias. Ter equipes diversas criando algoritmos de IA emocional será crucial para manter os vieses à distância e captar totalmente a complexidade das emoções. Isso significa não apenas diversidade de gênero e étnica, mas também diversidade de status socioeconômico e pontos de vista – desviando de coisas como xenofobia, homofobia e idade avançada. Quanto mais diversas forem as entradas e pontos de dados, maior a probabilidade de podermos desenvolver uma IA justa e imparcial.

As empresas também terão de estar vigilantes para não perpetuar os vieses históricos ao treinar a IA emocional. Embora os dados históricos possam ser usados como base para treinamento da IA em relação a diferentes estados emocionais, os dados em tempo real e ao vivo serão necessários para o contexto. Tome como exemplo os sorrisos. Um estudo revelou que dos 19 diferentes tipos de sorrisos, apenas seis acontecem quando as pessoas desfrutam de um momento agradável. Também sorrimos quando sentimos dor, vergonha e desconforto – distinções que só podem ser feitas com contexto.

Resumindo, a IA emocional será certamente uma ferramenta poderosa, forçando empresas a reconsiderar suas relações com consumidores e funcionários. Ela não só oferecerá novas métricas para entender as pessoas, mas também redefinirá produtos à medida que nós os conheçamos melhor. No entanto, à medida que as empresas ingressam no mundo da inteligência emocional, será essencial a necessidade de impedir que vieses se infiltrem no processo. A falha em agir corretamente deixará certos grupos sistematicamente mais incompreendidos do que nunca – muito longe das promessas oferecidas pela IA emocional.

Os autores gostariam de agradecer os colegas da Acceture Research, Xiao Chang, Paul Barbagallo, Dave Light e H. James Wilson, por suas contribuições significativas para este artigo.


Mark Purdy é Diretor Administrativo da Accenture Research.


John Zealley é Diretor Administrativo Sênior e Líder de Insight de Cliente e Crescimento Global da Accenture.


Omaro Maseli é Analista Sênior da Accenture Research.

Compartilhe nas redes sociais!

replica rolex