PUBLICIDADE
URGENTE
Saiba como doar qualquer valor para o PIX oficial do Rio Grande do Sul

Mulher paralisada após AVC volta a se comunicar via inteligência artificial

Ann Johnson sofreu um derrame cerebral em que perdeu o controle de todos os músculos do corpo e não conseguia respirar

28 ago 2023 - 11h26
(atualizado às 11h34)
Compartilhar
Exibir comentários
Inteligência artificial foi utilizada para auxiliar paciente a recuperar a voz
Inteligência artificial foi utilizada para auxiliar paciente a recuperar a voz
Foto: UCSF

Após sofrer um acidente vascular cerebral (AVC) aos 30 anos, a paciente Ann Johson recuperou sua capacidade de comunicação graça à inteligência artificial

A mulher recebeu um implante que capta sinais de regiões do cérebro associadas à fala e à linguagem; estes sinais são enviados para um computador que traduz os sinais cerebrais em frase. Todo este processo é executado por meio da inteligência artificial. 

O tratamento está sendo desenvolvido na Califórnia, nos Estados Unidos. Ann está ajudando pesquisadores da UC San Francisco e da UC Berkeley a desenvolver a nova tecnologia cérebro-computador que poderá um dia permitir que pessoas como ela se comuniquem de maneira mais natural, por meio de um avatar digital que se assemelhe a uma pessoa.

De acordo com a Universidade da Califórnia, é a primeira vez que a fala ou as expressões faciais são sintetizadas a partir de sinais cerebrais. 

O sistema também pode decodificar esses sinais em texto a quase 80 palavras por minuto, uma grande melhoria em relação às 14 palavras por minuto que seu atual dispositivo de comunicação oferece.

Edward Chang, presidente de cirurgia neurológica da UCSF, que trabalhou por mais de uma década na tecnologia conhecida como interface cérebro-computador (BCI), espera que este último avanço de pesquisa, publicado em 23 de agosto na revista Nature, levará a um sistema aprovado pela FDA que permitirá a fala a partir de sinais cerebrais em um futuro próximo.

“Nosso objetivo é restaurar uma forma de comunicação plena e incorporada, que é a maneira mais natural de conversarmos com outras pessoas”, disse Chang, que é membro do Instituto Weill de Neurociências da UCSF.

“Esses avanços nos aproximam muito mais de tornar esta solução uma solução real para os pacientes”, disse o pesquisador em comunicado publicado pela universidade. 

O coordenador de pesquisa clínica, Max Dougherty, conecta os eletrodos que ficam no cérebro de Ann ao computador
O coordenador de pesquisa clínica, Max Dougherty, conecta os eletrodos que ficam no cérebro de Ann ao computador
Foto: Noah Berger

Adicionando um rosto e uma voz

Para sintetizar a fala de Ann, a equipe desenvolveu um algoritmo para sintetizar a fala, que foi personalizado para soar como a voz dela antes da lesão, usando uma gravação de Ann falando em seu casamento.

“Meu cérebro fica estranho quando ouve minha voz sintetizada”, escreveu ela em resposta a uma pergunta. “É como ouvir um velho amigo.”

Ela espera ansiosamente pelo dia em que sua filha – que só conhece a voz impessoal e com sotaque britânico de seu atual dispositivo de comunicação – também poderá ouvi-la.

“Minha filha tinha 1 ano quando me machuquei, é como se ela não conhecesse Ann… Ela não tem ideia de como Ann soa.”

Avatar

A equipe animou o avatar de Ann com a ajuda de um software que simula e anima os movimentos musculares do rosto, desenvolvido pela Speech Graphics, empresa que faz animações faciais baseadas em IA. 

Os pesquisadores criaram processos personalizados de aprendizado de máquina que permitiram que o software da empresa se combinasse com os sinais enviados pelo cérebro de Ann enquanto ela tentava falar e os convertesse nos movimentos do rosto de seu avatar, fazendo com que a mandíbula abrisse e fechasse, os lábios se projetassem e se projetassem.

A língua sobe e desce, assim como os movimentos faciais de alegria, tristeza e surpresa.

“Estamos compensando as conexões entre o cérebro e o trato vocal que foram cortadas pelo derrame”, disse Kaylo Littlejohn, estudante de pós-graduação que trabalha com Chang e Gopala Anumanchipalli, professor de engenharia elétrica e informática na UC Berkeley. 

“Quando Ann usou pela primeira vez esse sistema para falar e mover o rosto do avatar em conjunto, eu sabia que isso teria um impacto real.”

Um próximo passo importante para a equipe é criar uma versão sem fio que não exija que Ann esteja fisicamente conectada ao BCI.

“Dar a pessoas como Ann a capacidade de controlar livremente os seus próprios computadores e telefones com esta tecnologia teria efeitos profundos na sua independência e interações sociais”, disse o co-autor David Moses, professor adjunto em cirurgia neurológica.

Para Ann, ajudar a desenvolver a tecnologia mudou sua vida. “Quando eu estava no hospital de reabilitação, a fonoaudióloga não sabia o que fazer comigo”, escreveu ela em resposta a uma pergunta. 

“Fazer parte deste estudo me deu um senso de propósito, sinto que estou contribuindo para a sociedade. Parece que tenho um emprego novamente. É incrível ter vivido tanto tempo; este estudo me permitiu realmente viver enquanto ainda estou viva!”

Fonte: Redação Byte
Compartilhar
TAGS
Publicidade
Publicidade