PUBLICIDADE

Sete em cada dez projetos de inteligência artificial em empresas falham, diz estudo

Segundo levantamento da consultoria BCG e do MIT, companhias precisam envolver diferentes áreas para serem bem sucedidas com algoritmos; para consultor, máquinas não vão substituir humanos

13 nov 2019 - 05h10
Compartilhar
Exibir comentários

No mundo corporativo de 2019, tornou-se lugar comum dizer que uma empresa que não investe em inteligência artificial (IA) tem grandes chances de ficar ultrapassada. Mas não basta simplesmente criar um projeto que use algoritmos para conquistar a chave para o futuro - pelo menos é o que diz um estudo recente da consultoria Boston Consulting Group, realizado em parceria com o Massachusetts Institute of Technology: de cada 10 projetos de IA realizados por companhias, sete deles não dão resultados ou têm retorno mínimo para as corporações.

"IA é bem diferente de engenharia: não é o caso de fazer um plano e executá-lo, mas sim de aprender com os erros. Também é uma questão de cultura: não é um problema só da área de tecnologia, mas sim do negócio todo", explica o francês Sylvain Duranton, um dos consultores que participaram da pesquisa.

Realizado em 97 países, com mais de 2,5 mil profissionais de 19 indústrias diferentes, o estudo mostra ainda cresceu o receio dos executivos sobre a implementação de IA em suas empresas - hoje, 45% tem esse medo, contra 37% há dois anos. "Há ainda outro fator complicado: as empresas perceberam que podem ficar para trás se não forem capazes de usar o poder das máquinas de forma escalável."

Na entrevista ao Estado, Duranton, que é advogado de formação, dá mais detalhes sobre a pesquisa e mostra a receita das empresas que podem ser consideradas "pioneiras da IA". Para ele, a inteligência artificial deve complementar o trabalho humano - e não substitui-lo. Caso contrário, sem as devidas precauções, corre-se o risco de criarmos uma "algocracia" - um sistema que mistura a "desumanidade" das burocracias com a velocidade do mundo digital. A seguir, os principais trechos da entrevista.

Fala-se muito em IA, mas a pesquisa mostra que poucas empresas acertam. Por que isso acontece?

Acredito que há uma desconexão entre a comunicação das empresas e a realidade. No estudo, percebemos que não há países que estejam extremamente adiantados ou indústrias atrasadas - em todos os setores, há pioneiros e gente que ficou para trás. Ainda há muito exagero e mistificação sobre a tecnologia. Porém, os executivos já perceberam que quem não conseguir achar um modo de usar essa tecnologia em escala estará fora do jogo. Para isso, porém, não basta só desenvolver soluções: é preciso ter cultura. Quando um projeto de IA é reportado para a área de tecnologia da empresa, ele tem duas vezes menos chances de dar certo do que quando está sob o comando da área de negócios ou do presidente executivo. Além disso, é melhor investir em IA para crescimento do que para produtividade.

Qual é a diferença?

Um programa de IA para crescimento pode ajudar os times de vendas a ter melhores preços ou ofertas, a partir de uma plataforma que ajuste o inventário. Já um projeto para produtividade ou eficiência pode, por exemplo, trocar pessoas por robôs de conversa. Ambos podem dar certo, mas os de crescimento tendem a ser melhores.

Há países que estão mais adiantados que outros?

Nas pesquisas que fizemos, vimos que a China e os EUA estão à frente. Depois, o Reino Unido, a Europa e por fim o Japão. Creio que é menos uma questão de talento e mais sobre a cultura. A Europa - e imagino que o Brasil seja parecido - tem uma cultura de engenharia. Pense assim: se você quer mandar um foguete para a Lua, é fácil. Basta fazer um plano, que pode levar três anos, convencer todo mundo e construir o foguete. IA já é diferente: é um trabalho sobre testar e errar, aprendendo com os erros. Uma empresa que é bem-sucedida com IA têm um ciclo muito rápido de inovação e trabalha com times ágeis - algo raro nas empresas europeias, que visam a perfeição da engenharia. O pragmatismo é melhor que a perfeição, nesse caso.

Muito se discute sobre o risco da IA tirar empregos dos humanos. O que o sr. pensa sobre isso?

Este é um tema que provoca muito estresse. Um terço das pessoas acha que seu trabalho não existirá em cinco anos. Outro até acredita que o emprego estará lá, mas não será qualificado. A questão é que IA não é um tsunami que vai matar dois terços dos trabalhos em cinco anos. É muito difícil conseguir automatizar completamente uma tarefa - se você conseguir que uma máquina realize 90% do trabalho de um humano, ainda será necessário alguém para cumprir os outros 10%. O melhor jeito de usar IA é complementando o trabalho - gosto de pensar que a sigla deveria significar "inteligência amplificada", ajudando as pessoas a fazer seu trabalho de uma maneira melhor.

E como isso pode ser feito? Dá para se preparar?

Dá. Estimo que 80% dos empregos serão afetados por IA, mas de jeitos diferentes. Alguns deles serão racionalizados. Pense no Uber e nos taxistas de antigamente: com um GPS, o motorista do Uber só precisa seguir; já o taxista precisava ter todos os caminhos na cabeça. A IA pode tomar conta de um trabalho pouco valioso e deixar as coisas mais simples. Outro caminho vai na linha da amplificação: para um advogado, é preciso estudar as decisões de determinado juiz para preparar a argumentação para um caso. É algo que leva tempo - e que um algoritmo pode reduzir esse trabalho, deixando mais espaço para que o advogado trace a estratégia. É uma questão de adequação, não de perda de empregos. Mas é preciso se preparar: as empresas não podem se esconder no passado. Elas têm de se preocupar, discutindo com sindicatos e o departamento de recursos humanos sobre como adequar a força de trabalho. O quanto antes isso for feito, mais fáceis e suaves as coisas serão no futuro.

Quais são os riscos da implementação de inteligência artificial em larga escala?

As máquinas têm dificuldade de lidar com o contexto - em especial, com o contexto humano. Hoje, nos EUA, já há algoritmos que constroem preços. Eles têm padrões: se percebe que uma loja em uma determinada vizinhança é pouco sensível a preço, a máquina aumenta o preço. Isso pode gerar distorções se não houver contexto: às vezes, as pessoas podem ser insensíveis a preço não porque não têm dinheiro, mas sim porque vivem num bairro pobre e sem opções. Não é algo bom: um humano nunca teria feito isso. Se confiarmos cegamente na inteligência artificial, isso poderá acontecer muitas vezes. É um problema: nas empresas de hoje, todos querem ser ágeis. A agilidade é tida como o oposto da burocracia - que nada mais é um conjunto de regras e padrões criados porque não se confia em julgamento individual. Ora, IA é nada mais que um conjunto de regras gerados por uma máquina. Há o risco de criarmos uma nova burocracia, ainda mais complexa: é o que chamo de algocracia.

O que é isso?

Imagine um sistema de algoritmos que funcione de forma automática, sem correções "humanizadas". Se descobrirmos que um algoritmo pode causar danos, ele precisa ser detido e repensado - especialmente em áreas sensíveis como acesso a escolas, crédito, seguros ou tratamentos de saúde. Não basta apenas usar bancos de dados que não tem viés para gerar um algoritmo que não seja enviesado - a vida não é assim, porque sempre haverá viés. É preciso trabalhar com ética, antecipando os efeitos colaterais das armadilhas da IA. A diferença entre personalização e manipulação de dados é muito pequena.

No Brasil, a lentidão ligada à burocracia é tida como um dos maiores problemas do País. Uma algocracia não poderia ser melhor, porque é mais rápida?

Uma algocracia é mais rápida, mas seus danos causam mais estrago. Numa grande burocracia, há o fator humano: apesar das regras, as pessoas tentam se comprometer com o que é certo. O tempo também evita que grandes distorções aconteçam. Já um algoritmo tomará decisões instantâneas - podendo afetar toda a justiça social do planeta em questões de segundos, por exemplo. É algo muito complexo.

Estadão
Compartilhar
Publicidade
Publicidade