Script = https://s1.trrsf.com/update-1732903508/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

'Engenheiro do Google se precipitou sobre IA viva', diz professor de Columbia

Especialista em inteligência artificial, Hod Lipson acredita que sistemas se tornarão autoconscientes, mas afirma que funcionário da gigante se empolgou cedo demais com a possibilidade

20 jun 2022 - 05h01
Compartilhar
Exibir comentários
Lipson afirma que IA autoconsciente ainda não deve chegar pelas próximas duas décadas 
Lipson afirma que IA autoconsciente ainda não deve chegar pelas próximas duas décadas
Foto: Divulgação / Estadão

Na última semana, um engenheiro do Google causou barulho - e algumas dúvidas - ao afirmar que o LaMDA, um dos sistemas de inteligência artificial (IA) da empresa, havia se tornado autoconsciente. A companhia afastou o funcionário e refutou a afirmação.

O interesse no assunto se justifica: a ideia de máquinas conscientes toca em fantasias e temores retratados na ficção diversas vezes - a crescente presença de sistemas do tipo em nossas vidas alimenta ainda mais a curiosidade. Mas, por enquanto, é possível afirmar que o engenheiro do Google se precipitou.

Quem diz isso é Hod Lipson, diretor do Laboratório de Máquinas Criativas da Universidade Columbia. Com uma extensa carreira em robótica e IA, o israelense tem como uma de suas áreas de estudo sistemas autoconscientes. "Eu já estive na posição do engenheiro do Google, mas se receber o conteúdo de maneira literal, vai acabar tirando conclusões precipitadas. Não temos as fundações para construir uma máquina autoconsciente", afima.

Isso, porém, não significa que não vamos chegar lá. Lipson afirma que em pouco tempo sistemas conscientes serão realidade, embora ele descarte comparações cinematográficas. Ele, por exemplo, explica que máquinas já conseguem se imaginar no futuro por um período curtíssimo - e esse horizonte deve avançar nos próximos anos.

O professor estará no Brasil entre 26 e 30 de junho para participar do Brazil Executive Program, evento promovido pela HSM e SingularityU, que ocorre em Campos do Jordão (SP) - o assunto abordado será o uso de IA nos negócios . Antes, porém, ele conversou com o Estadão sobre sistemas autoconscientes e os problemas da tecnologia. Acompanhe.

Qual é a sua avaliação da história do engenheiro do Google?

Eu já tive na mesma situação que ele, na qual você conversa com um chatbot e parece que ele é autoconsciente.Atualmente, a máquina apenas regurgita texto escrito por outras pessoas - eles não geram texto "do nada". Isso acontece particularmente quando se trata de tópicos profundos, como Deus, significado da vida, emoções e significado de ser humano. A máquina pesca coisas muito profundas escritas por outras pessoas. Se você receber o conteúdo de maneira literal pode acabar tirando conclusões precipitadas. Humanos tendem a ver emoções em tudo: em árvores, em bichinhos de pelúcia… Mas com IA não chegamos lá ainda. Do ponto de vista técnico, não temos as fundações para construir uma máquina autoconsciente.

O engenheiro do Google então se empolgou com a ideia de conhecer um sistema "vivo"...

Acreditamos que sim e isso já aconteceu comigo. Você junta fragmentos de textos que tocam suas emoções. A máquina pode gerar textos profundos que são enganosos.

Chegaremos ao ponto de ter máquinas autoconscientes?

Ao contrário de outras pessoas, acho que não estamos longe. Talvez em uma ou duas décadas. Mas não será algo que acontecerá de repente. Será gradual e os nossos netos viverão em mundo no qual máquinas serão, no mínimo, parcialmente conscientes. Talvez, a autoconsciência delas será diferente daquilo que é vivido pelos humanos. Será uma inteligência diferente e muita coisa mudará.

Para uma máquina, o que significa ter autoconsciência?

Após anos de pesquisa, a minha resposta é simples: autoconsciência é a capacidade de poder imaginar-se no futuro. Você consegue imaginar como será amanhã, enquanto você anda na praia. Ou consegue imaginar como será quando se aposentar - é daí que surgem também as emoções. O que estamos fazendo agora é ensinar máquinas a se imaginarem no futuro. Hoje em dia, elas já fazem isso por uma janela curtíssima, como animais.

Os sistemas atuais conseguem se imaginar no futuro ou fingem que conseguem?

As máquinas podem se imaginar no futuro em um horizonte curtíssimo. Uma máquina não consegue imaginar que será reciclada, mas consegue imaginar as consequências imediatas de tomada de determinadas decisões. Isso é o que os bebês fazem: eles não pensam sobre o significado da vida ou sobre ir para a escola. Porém, o horizonte das máquinas está se ampliando e, conforme isso avança, teremos mais sistemas conscientes.

O sr. costuma mencionar que existem seis ondas de IA. Em qual delas estamos agora?

Estamos no meio da terceira onda, que é a onda cognitiva. As duas primeiras ficaram no passado e foram bem frustrantes. A primeira onda produz IA baseada em regras, que são os sistemas que encontramos 90% das vezes. São sistemas rápidos e eficientes que não aprendem. A segunda onda é de análise de dados, na qual as pessoas estão usando para fazer previsões, como ocorre no mercado financeiro e no varejo. Esses sistemas aprendem um pouco mais. Agora, temos sistemas que reconhecem animais, que identificam emoções em expressões faciais e que conduzem carros. Agora os sistemas entendem e enxergam elementos que não são estruturados. Isso não era possível há uma década e está mudando tudo: do varejo à agricultura, do transporte à saúde.

Faz sentido permitir que sistemas se tornem conscientes? O que isso pode melhorar em nossas vidas?

A autoconsciência de máquinas não é algo preto e branco. Você não vai ligar uma máquina um dia e ela vai dizer "olá" e dominar o mundo. Isso é coisa de filme. Será um processo gradual. A consciência não é apenas para entender humanos. Ela garante resiliência. As máquinas que têm autoconsciência podem se recuperar de danos e se adaptar com maior velocidade. Isso é importante porque a sociedade depende cada vez mais desses sistemas - muitos são críticos para a preservação da vida. Não teremos a capacidade humana para consertar esses sistemas o tempo todo, então as máquinas precisam saber se cuidar sozinhas.

Quais os riscos?

Não tenho todas as respostas, e creio que todos deveriam estar discutindo os riscos e benefícios da tecnologia. Acredito que a possibilidade de perda de controle sobre a tecnologia é um dos riscos. Quando você entrega o volante para um sistema autônomo, você perde o controle sobre o carro. A perda de controle não é necessariamente ruim, mas precisamos saber avaliar até que ponto daremos controle e resiliência para as máquinas. Será preciso decidir caso a caso sobre quando os benefícios superam os riscos. Para pessoas que foram excluídas do acesso médico, ter um sistema com precisão de 99% nos diagnósticos é um grande benefício. Você perde o controle, mas o benefício é maior.

Discutir sistemas autoconscientes não desvia a atenção de questões mais urgentes de IA, como viés, racismo, monopólio e regulação?

É verdade. Manchetes sensacionalistas podem nos distrair. Eu amo discutir senciência, mas os sistemas já são muito poderosos, com implicações gigantes. Era impensável o fato de que uma IA pode mudar a opinião das pessoas e resultados políticos. Como cientista de IA, posso dizer que esses sistemas superaram todas as nossas expectativas. É importante discutir todos esses assuntos, pois não há respostas simples. É como toda grande tecnologia que a humanidade já criou: o fogo, a prensa móvel e a genética. Acho que agora entendemos mais alguns dos riscos da tecnologia. O viés e o reconhecimento facial podem ser mal aplicados. Há alguns anos, tudo isso costumava ser algo deixado para depois, mas hoje somos mais cuidadosos. Eu sou otimista.

Como atribuir a humanos a responsabilidade pela criação de algoritmos depois que sistemas se tornarem autoconscientes?

Não há respostas simples. Isso não vai acontecer rápido e isso nos salvará. O processo será lento e está acontecendo de maneira muito aberta. Teremos de reagir. Como você atribui responsabilidade a grandes empresas? Essa é a velha questão que existe na indústria de petróleo. Isso é maior que a IA: é uma questão de poder. Vou dizer algo contra intuitivo: o combustível da IA são dados e tendemos a restringir isso por causa da privacidade. Quando você restringe dados, apenas grandes companhias terão acesso a isso. Quando você torna os dados mais abertos, todos podem trabalhar com os dados de maneira mais igualitária e você acaba com controle menos centralizado. Será uma forma mais segura de lidar com esses sistemas.

Como o sr. enxerga a regulação de IA?

Encontrar uma maneira de regular dados e IA é muito importante. Diferentemente de regular a tecnologia nuclear ou avanços em genética, regular IA é muito difícil por duas razões. A primeira é que a tecnologia se movimenta muito facilmente. Você pode regular em um país, mas em outro aquilo que era proibido avança. A segunda coisa é que é muito barata. Qualquer um pode desenvolver. Você não precisa ser o governo para desenvolver IA. Com três computadores você consegue fazer coisas incríveis. Você pode criar as regras, mas terá dificuldades em fiscalizar. Transparência é o mais importante de tudo. Eu não focaria em restringir o uso de dados. Todos que usam essas informações precisam ser transparentes, e elas precisam estar disponíveis para todos.

Como evitar que a IA promova ainda mais concentração de riqueza?

A indústria de tecnologia, como outras grandes indústrias, tem esse problema: o vencedor leva tudo. Mas isso não é um problema de inteligência artificial. É um desafio econômico e de como distribuímos a riqueza. É um grande problema e não estou dizendo que não devemos resolver isso. Mas não é um problema específico da IA. De fato, a IA ajudou a economia a se sustentar durante a pandemia.

Quais as pesquisas em IA mais te empolgam?

São as relacionadas à quarta onda de IA, que é sobre criatividade. As pessoas acreditam que a criatividade é algo inerente aos humanos - e tem sido assim desde sempre. IAs criativas são muito interessantes. Humanos são bons em criar coisas pelas quais temos alguma intuição. Podemos construir casas e cadeiras ou compor canções. Mas a IA pode aprender a desenvolver coisas pelas quais não temos intuição, como proteínas ou antenas. Quando a IA começar a criar proteínas, ela poderá resolver muitos desafios médicos. Não estou falando sobre arte quando falo de criatividade - a IA pode fazer isso, mas não precisamos de ajuda nessa área. Mas precisamos de ajuda para desenvolver a próxima geração das coisas e encontrar soluções para grandes problemas. Máquinas podem ser criativas e isso muda tudo.

Estadão
Compartilhar
TAGS
Publicidade
Seu Terra












Publicidade