Tecnologia

Máquinas que falam e escrevem aumentarão a desinformação

Amy Stapleton
23 de maio de 2019

Há muito tempo os profissionais da tecnologia sonham em construir máquinas que conversem com a mesma agilidade dos humanos. Os primeiros subestimaram a magnitude desse desafio. No entanto, em 2019, parecemos estar bem próximos de atingir esse objetivo. Os players mundiais que dominam a tecnologia estão se apressando para criar softwares — inteligentes ou não — que possam tanto conversar quanto escrever de forma tão eficaz quanto os humanos.

Leia também:

A transformação digital não se limita à tecnologia

Um processo de 5 etapas para aprimorar a gestão de talentos usando tecnologia

Mas qual é o problema? Nós não estamos preparados para lidar com os riscos que poderiam advir da implementação bem-sucedida de máquinas de conversação. Para prever os desafios que nos aguardam, podemos lançar um olhar nas tecnologias subjacentes.

A Amazon está certamente na vanguarda da indústria de assistentes de voz, e os executivos da equipe da Amazon Alexa são transparentes em relação ao objetivo de aprimorar a capacidade de conversação da Alexa. A empresa de Seattle lançou o Alexa Challenge há três anos como um incentivo às melhores e mais brilhantes equipes acadêmicas. Seu objetivo é tornar a Alexa mais eficaz em “conversas de domínio aberto”, referindo-se a discussões que abrangem diversos tópicos.

Uma espiada nos bastidores desses bots de conversação revela uma mistura de respostas pré-programadas de baixa tecnologia e algoritmos de aprendizado de máquina de ponta. As redes neurais preditivas permitem que os melhores bots gerem respostas convincentes dinamicamente. Para formar frases, o software faz uma varredura em sites e bancos de dados de conteúdo aberto. Entre as fontes mais comuns estão os sites Cornell Movie Dialogs, Reddit e IMDB. Os bots são treinados para combinar rapidamente pequenos diálogos de filmes, comentários do Reddit e outros conteúdos, formando comentários e respostas que se encaixam com plausibilidade em uma conversa em andamento.

Outros bots geradores de conteúdo, por vezes chamados de robo-writers (robôs-escritores, em tradução livre), utilizam dados financeiros e placares esportivos para produzir, automaticamente, relatórios e artigos praticamente indistinguíveis daqueles criados por humanos.

Um vislumbre dos perigos em potencial desse novo mundo nos foi fornecido por pesquisas recentes da OpenAI. A equipe dessa ONG desenvolveu um software que gerava, de forma automática e convincente, um raciocínio sobre um assunto em destaque no momento. Na verdade, o programa demonstrou tamanha desenvoltura que a OpenAI receou que o software pudesse ser usado indevidamente para gerar notícias falsas; por isso, ela optou por não disponibilizar o código completo para o público.

A era futura das máquinas proficientes em conversação e escrita contém muitos desafios que poucas pessoas parecem estar lidando com seriedade. Preparei uma pequena lista com alguns tópicos para refletirmos:

  • Como podemos garantir que tecnologias de conversação aprimoradas não se transformem em uma nova geração de bots perniciosos e convincentes geradores de notícias falsas?
  • Como as empresas podem se proteger de bots falsos que falam em seu nome? O exemplo mais conhecido é a Tay, da Microsoft, que ficou famosa por se envolver em uma saia-justa ao imitar declarações extremamente inadequadas aprendidas de interlocutores mal-intencionados.
  • Como evitar cenários nos quais as máquinas tentam nos agradar dizendo apenas aquilo que queremos ouvir? A empresa Deep Mind divulgou um estudo sobre mecanismos de recomendação, destacando o papel que esses sistemas desempenham na criação de câmaras de eco que isolam as pessoas de diferentes pontos de vistas.
  • Que métodos podemos empregar para impedir que máquinas verborrágicas arrastem todo o discurso humano para o menor denominador comum? Lembremo-nos de que o software utilizado para gerar respostas automatizadas é altamente dependente de conjuntos de dados com o conteúdo e as conversas mais triviais geradas pelos humanos.

Os criadores dessas tecnologias poderosas devem concentrar-se em como aproveitá-las para o verdadeiro benefício do consumidor. Se somos capazes de criar bots que espalham notícias falsas, podemos também criar tecnologias que exponham essas inverdades? Talvez possamos dar um passo além e destacar pontos de vista unilaterais? Um serviço desse tipo ajudaria os consumidores a evitar a armadilha de desligar seus receptores de pensamento crítico.

Imaginemos um bot inteligente que sussurre em seu ouvido para tomar cuidado com possíveis reportagens tendenciosas em artigos com os seguintes títulos:

  • Prefeito pede redução sensível de cães assassinos
  • Prefeito persegue donos de raça canina falsamente difamada

Seu bot da “objetividade” pode lhe apontar um terceiro conteúdo, com o título:

  • Prefeito enfrenta questão controversa de restrições à pitbulls

Um robô alimentado por inteligência artificial, projetado para ajudar os consumidores a identificar parcialidade em reportagens, poderia fornecer um contrapeso, ou até mesmo um dissuasor, para bots falantes ou escritores criados para influenciar opiniões ou aumentar a fragmentação social e política.

Não deveria mais ser surpresa que toda tecnologia criada pelos seres humanos venha com seus prós e contras embutidos. No momento em que nos precipitamos para a era das máquinas de conversação, devemos começar a pensar sobre suas desvantagens e criar ferramentas para combatê-las.


Amy Stapleton é fundadora e CEO da Tellables, uma editora de histórias conversacionais para dispositivos de voz. Antes de fundar a Tellables, Stapleton foi Gestora de Tecnologia da Informação da NASA.

Compartilhe nas redes sociais!

replica rolex