Tecnologia ajuda mulher com doença grave a voltar a "falar" após 13 anos
Pat Bennet, de 68 anos, foi diagnosticada com Esclerose Lateral Amiotrófica (ELA) e participa de experimento com chips cerebrais
Chips cerebrais possibilitaram que uma mulher de 68 anos voltasse a falar 13 anos após sofrer o mesmo distúrbio que matou o físico Stephen Hawking. Com o padrão de 62 palavras por minuto, a tecnologia permite uma aproximação da velocidade normal de fala.
O novo sistema, conduzido por inteligência artificial, é três vezes melhor na tradução da atividade cerebral em fala e foi testado em Pat Bennet, nos Estados Unidos.
A mulher perdeu a capacidade de fala em 2012, após ser diagnosticada com uma doença rara. Agora, com a ajuda de sensores do tamanho de uma aspirina implantados no seu cérebro, ela faz parte de um ensaio clínico na Universidade de Stanford para recuperar a fala.
Os chips ajudaram a paciente a comunicar seus pensamentos diretamente de sua mente para um monitor de computador a uma velocidade recorde de 62 palavras por minuto – mais de três vezes mais rápido do que o melhor da tecnologia anterior.
Cientistas cognitivos e pesquisadores médicos fora de Stanford também estão impressionados. Um deles, o professor Philip Sabes, da Universidade da Califórnia, em São Francisco, que estuda interfaces cérebro-máquina e foi cofundador da Neuralink de Elon Musk, descreveu o novo estudo como um “grande avanço”.
“O desempenho neste artigo já está num nível que muitas pessoas que não conseguem falar desejariam, se o dispositivo estivesse pronto”, disse Sabes ao MIT Technology Review no início deste ano, enquanto o estudo de Stanford ainda passava pela revisão por pares. “As pessoas vão querer isso”.
Esclerose Lateral Amiotrófica (ELA)
Desde 2012, Pat Bennett luta contra a esclerose lateral amiotrófica (ELA), a mesma doença que tirou a vida do parceiro de Sandra Bullock, Bryan Randall, recentemente, e do famoso físico Stephen Hawking em 2018.
A doença ataca os neurônios do sistema nervoso central do corpo que controlam o movimento.
Ao longo de 26 sessões, cada uma com duração de cerca de quatro horas, Pat trabalhou com um algoritmo de inteligência artificial, ajudando a treinar a IA para identificar qual atividade cerebral corresponde a 39 fonemas ou sons principais usados no idioma que ela fala, o inglês.
Através da tecnologia de sensores cerebrais, que os pesquisadores de Stanford chamam de interface intracortical cérebro-computador (iBCI), Bennett tentaria comunicar efetivamente cerca de 260 a 480 frases por sessão de treinamento para a IA.
As frases foram selecionadas aleatoriamente a partir de um grande conjunto de dados, proveniente de uma coleção de conversas telefônicas coletadas pelo fabricante de calculadoras Texas Instruments para pesquisas linguísticas na década de 1990.
Durante sessões em que as opções de frases foram limitadas a um vocabulário de 50 palavras, Bennett e a equipe de Stanford que trabalhava com ela conseguiram reduzir a taxa de erro do tradutor de IA para 9,1%.
Quando o limite de vocabulário foi expandido para 125.000 palavras, mais próximo do número total de palavras em inglês de uso comum, a IA de fala teve um aumento nos erros de tradução. A taxa subiu para 23,8 %.
Embora essa taxa de erro deixe a desejar, os pesquisadores acreditam que as melhorias poderiam continuar com mais treinamento e uma interface mais ampla, ou seja, mais implantes, interagindo entre o cérebro e a IA do iBCI.
A velocidade de decodificação de pensamentos em fala do algoritmo já superou todos os modelos anteriores três vezes. O iBCI do grupo Stanford foi capaz de avançar a 62 palavras por minuto, 3,4 vezes mais rápido que o recordista anterior e mais próximo do que nunca da taxa natural da conversa humana, 160 palavras por minuto.