Análises

O trade-off que toda empresa do segmento de inteligência artificial enfrentará

Ajay Agrawal, Joshua Gans e Avi Goldfarb
9 de agosto de 2018
trade-off da inteligência artificial

Não é necessário um treinamento extensivo para alguém em início de carreira como caixa do McDonald’s. Mesmo no primeiro dia, muitos já são bons o suficiente. E melhoram à medida que atendem mais clientes. Embora um novo caixa possa ser mais lento e cometer mais erros do que seus colegas mais experientes, a sociedade aceita o aprendizado pela prática.

Não pensamos muito nisso, mas isso também é verdade para os pilotos de jatos comerciais. É confortante saber que a certificação de pilotos é regulamentada pela Administração Federal da Aviação do Departamento de Transportes dos Estados Unidos, e que ela exige uma experiência mínima de 1.500 horas de voo, 500 horas de voos de navegação, 100 horas de voos noturnos e 75 horas de operações por instrumentos. Mas também sabemos que os pilotos continuam a se aperfeiçoar com a experiência obtida na prática.

Em 15 de janeiro de 2009, quando o voo 1549 da US Airways foi atingido por um bando de gansos canadenses, desligando todos seus motores, o Capitão Chelsey “Sully” Sullenberger conseguiu pousar o avião no rio Hudson milagrosamente, salvando a vida dos 155 passageiros. A maioria dos repórteres atribuiu seu desempenho à experiência. Ele tinha 19.663 horas de voo, sendo 4.765 em um A320. O próprio Sully pondera: “uma maneira de analisar é que, por 42 anos, venho fazendo pequenos depósitos regulares nesse banco de experiência, educação e treinamento. E, em 15 de janeiro, meu saldo era suficientemente grande para que eu pudesse fazer um grande recuo”. Sully e todos os seus passageiros se beneficiaram de todos os voos que ele já tinha feito.

A diferença entre caixas e pilotos em relação ao que significa “ser suficientemente bom” é baseada na tolerância ao erro. É óbvio que nossa tolerância é muito menor em relação a erros de pilotos. Isso se reflete na quantidade de treinamento interno exigido de um piloto antes de começar a atender seus primeiros clientes, muito embora eles continuem a aprender na prática. Temos definições diferentes para o que é suficientemente bom quando falamos da quantidade de treinamento necessária para diferentes funções.

O mesmo é verdade para máquinas que aprendem.

Aplicativos de Inteligência Artificial (IA) se baseiam na geração de previsões. Diferentemente dos tradicionais algoritmos programados de computador, desenhados para tomar dados e seguir uma trajetória determinada para produzir um resultado, o aprendizado computacional, a abordagem mais comum de IA hoje em dia, envolve algoritmos que se desenvolvem por diferentes processos de aprendizagem. Dados e resultados são fornecidos à máquina, que busca por associações e, com base nessas associações, busca novos dados nunca utilizados e prevê um novo resultado.

Isso significa que máquinas inteligentes precisam ser treinadas, assim como pilotos e atendentes de caixa. As empresas desenvolvem sistemas de treinamento para treinar novos funcionários até que eles estejam aptos para o trabalho, sabendo que eles também melhorarão com a prática no próprio trabalho. Embora pareça óbvio, determinar o que significa suficientemente bom é uma decisão importante. No caso de máquinas inteligentes, saber quando substituir o treinamento teórico pelo prático pode ser uma importante decisão estratégica em relação à economia de tempo.

Não existe uma resposta pronta para o que significa “bom o suficiente” para máquinas inteligentes. Na verdade, existe um trade-off. O sucesso com máquinas inteligentes depende de levar a sério esse trade-off e de como abordá-lo estrategicamente.

A primeira pergunta que as empresas devem fazer é qual o grau de tolerância delas e de seus clientes ao erro. Temos um elevado grau de tolerância para algumas máquinas inteligentes e baixo para outras. Por exemplo: o aplicativo da caixa de entrada do Google lê seus e-mails e utiliza a inteligência artificial para prever como você gostaria de responder e gera três opções de respostas curtas para você escolher. Muitos usuários declararam gostar de utilizar o aplicativo mesmo apresentando um índice de erro de 70% (isto é: as respostas geradas só foram úteis em 30% dos casos). A razão para essa alta tolerância ao erro é que o benefício da redução de compor e digitar uma mensagem supera o custo de jogar no lixo as sugestões de resposta erradas.

Por outro lado, temos baixa tolerância a erro quando falamos de veículos autônomos. A primeira geração desses veículos, em grande parte iniciada pelo Google, foi treinada utilizando motoristas humanos especialistas que dirigiram uma série limitada de veículos por centenas de milhares de quilômetros. Era como um pai levando seu filho adolescente para treinar a direção antes de deixá-lo dirigir sozinho.

Os motoristas humanos especializados fornecem um ambiente de treinamento seguro, mas também extremamente limitado. A máquina aprende apenas uma pequena parte das situações possíveis. Uma pessoa pode precisar de milhões de quilômetros em diferentes ambientes e situações antes que aprenda a lidar com os raros incidentes que podem levar a um acidente. Para veículos autônomos, estradas de verdade são terríveis justamente porque podem ocorrer situações terríveis causadas por seres humanos.

A segunda pergunta a fazer é o quão importante é capturar dados de usuários em situações reais. Ao entender que o treinamento poderia demorar uma eternidade, a Tesla incorporou alguns recursos de seus veículos autônomos em todos os modelos lançados recentemente. Esses recursos incluem uma série de sensores que coletam informações do ambiente e dados de direção que são carregados nos servidores de máquinas de aprendizagem da empresa. Em um curto período de tempo, a Tesla pode obter dados de treinamento apenas observando como os motoristas dirigem seus carros. Quanto mais veículos da Tesla estiverem nas ruas, mais as máquinas inteligentes da Tesla poderão aprender.

Entretanto, além da coleta de dados passiva enquanto pessoas dirigem seus Teslas, a empresa precisa de dados de carros autônomos para poder avaliar o desempenho de seus sistemas, e também avaliar quando um motorista humano, que precisa estar presente e atento, decide intervir. O objetivo da Tesla não é criar um copiloto, ou um adolescente que possa dirigir sob supervisão, mas sim um veículo autônomo completo. E, para isso, é preciso chegar ao ponto em que as pessoas se sintam seguras e confiantes em um carro autônomo.

E aqui está um trade-off complicado. Para a Tesla melhorar, é necessário que suas máquinas aprendam em situações reais. Mas colocar seus carros atuais em situações reais significa dar a seus clientes um motorista relativamente “novo e inexperiente”, embora talvez tão bom quanto, ou talvez melhor do que muitos jovens motoristas. Mesmo assim, é muito mais arriscado que um teste beta, por exemplo, ao testar se a Siri ou Alexa entende o que você diz, ou se a caixa de entrada do Google prevê corretamente sua resposta a um e-mail. No caso da Siri, Alexa ou caixa de correio do Google, significa um serviço de baixa qualidade. No caso de veículos autônomos, significa colocar vidas em risco.

Conforme registrado em artigo recente do site Backchannel, essa experiência pode ser assustadora. Os carros podem sair de rodovias sem aviso ou pisar nos freios quando confundem uma passagem subterrânea com uma obstrução. Motoristas nervosos podem optar por não usar algumas funções autônomas e, neste processo, inibir a capacidade de aprendizagem da Tesla. Além do mais, mesmo que a empresa consiga persuadir alguns a serem usuários beta, são essas as pessoas que a empresa procura? Afinal, um usuário beta para um veículo autônomo pode ser alguém com mais gosto pelo risco que a maioria dos motoristas. Nesse caso, a empresa está treinando suas máquinas para parecer com quem?

As máquinas aprendem mais rápido se tiverem acesso a uma maior quantidade de dados. E mais dados são gerados na vida real. Entretanto, coisas ruins podem acontecer na vida real e arranhar a imagem da empresa. Lançar produtos no mercado mais cedo acelera o processo de aprendizagem, mas há o risco de prejudicar a imagem da empresa (e talvez até o cliente!). Colocar produtos no mercado tarde demais retarda o aprendizado, mas dá mais tempo para melhorar o produto dentro de casa e proteger a marca (e de novo, talvez até o consumidor).

Para alguns produtos, como a caixa de entrada do Google, a resposta para esse trade-off parece clara porque o custo de um mau desempenho é baixo e os benefícios de aprender com o cliente são altos. Faz sentido lançar esse tipo de produto cedo. Para outros produtos como carros, a resposta não é tão clara. À medida que mais empresas procuram obter vantagens com as máquinas inteligentes, esse é um risco que terão que assumir cada vez mais.
—————————————————————————
Ajay Agrawal é detentor da cátedra Peter Munk de Empreendedorismo da Rotman School of Management da University of Toronto e pesquisador associado do National Bureau of Economic Research em Cambridge, Massachusetts. Ele é fundador da Creative Destruction Lab, cofundador do The Next AI e do Kindred. Ele é coautor de Prediction machines: the simple economics of artificial intelligence (Harvard Business School Press, abril de 2018).
—————————————————————————
Joshua Gans é o presidente da cátedra Jeffrey S. Skoll de Inovação Técnica e Empreendedorismo da Rotman School of Management da University of Toronto e atua como economista-chefe do Creative Destruction Lab. É coautor de Prediction machines: the Simple economics of artificial intelligence (Harvard Business School Press, abril de 2018). Seu livro The disruption dilemma foi publicado pela MIT Press.
—————————————————————————
Avi Goldfarb é detentor da cátedra Ellison de Marketing da Rotman School of Management da University of Toronto. Ele é também pesquisador associado do National Bureau of Economic Research, cientista-chefe de dados do Creative Destruction Lab e editor-sênior da Marketing Science. É coautor do livro Prediction machines: the simple economics of artificial intelligence (Harvard Business School Press, abril de 2018).
—————————————————————————
Tradução: Cecilia Pinheiro

Compartilhe nas redes sociais!