Pat Bennett não consegue falar de forma perceptível. A difi culdade no discurso foi um dos grandes impactos da esclerose lateralamiotrófi ca na vida desta antiga directora de recursos humanos. Mas a equipa de cientistas liderada por Francis Wilett quisdevolver as palavras à sua vida através de sensores implantados no seu cérebro — e conseguiu. O grupo desenvolveu um aparelho que transmite sinais do cérebro de Pat Bennett para um software que descodifi ca a sua actividade cerebral e a converte em palavras num ecrã de um computador. Este é um dos dois casos apresentados na revista científica Nature de pessoas comparalisia que voltaram a comunicar verbalmente através de implantes cerebrais.
O diagnóstico chegou em 2012. Nesse ano, Pat Bennett soube que tinha esclerose lateral amiotrófica (https://www.publico.pt/2020/06/21/ciencia/noticia/fontes-energia-celulas-podem-cruciais-combate-1921206) (ELA), uma doença neurológica degenerativa e progressiva que ataca os neurónios que controlam os movimentos. A ELA causa fraqueza física e até paralisia.
No caso de Pat Bennett, um dos grandes problemas foi a fala. “Quando se pensa na ELA, pensa-se logo no impacto dos braços e das pernas, mas, num grupo de doentes, as dificuldades começam no discurso oral. Sou incapaz de falar”, contou por email,agora já com 68 anos, para o site da Faculdade de Medicina da Universidade de Stanford.
Embora com cada vez mais dificuldade, Pat Bennett ainda consegue vestir-se sozinha e usar os seus dedos para escrever no computador. Contudo, não consegue usar os músculos dos seus lábios, língua, laringe e mandíbulas para pronunciar palavras deforma clara. Mas não está tudo perdido: o seu cérebro ainda consegue trabalhar para que as palavras sejam geradas — falta é quem as reproduza.
É aqui que entra a equipa da Universidade de Stanford liderada por Francis Wilett. Em Março de 2022, colocou sensores à superfície de duas regiões do cérebro de Pat Bennett que estão ligadas à produção da fala. Esses sensores estão integrados num software que consegue fazer a passagem da actividade cerebral ligada à fala para palavras num ecrã.
Erin Kunz, também da Universidade de Stanford e uma das autoras do estudo (https://www.nature.com/articles/s41586-023-06377-x), explica ao PÚBLICO que os eléctrodos conseguem gravar os sinais neuronais da fala no córtex motor enquanto a pessoa tenta falar. Depois, um algoritmo faz a passagem desses sinais para unidades sonoras, os fonemas. Uma sequência de fonemas transforma-se em texto através de um modelo de linguagem.
“A Pat tenta dizer algo da mesma forma que qualquer pessoa, mas devido à ELA o seu discurso não é perceptível”, nota ErinKunz. Por isso, a ideia de se ter o sinal do córtex motor de Pat Bennett no momento em que está a tentar falar e usá-lo para que, no final, resulte em texto escrito num ecrã pode funcionar.
Após colocados os sensores, foram feitas sessões para treinar o software e Pat Bennett. Quatro meses depois do início desses treinos, Pat Bennett já tinha conseguido resultados notórios. Em um minuto passavam no ecrã 62 palavras do que Pat Bennett queria transmitir, o que é três vezes mais rápido do que os registos anteriores de aparelhos semelhantes. Este valor é mais próximo da velocidade de uma conversação natural em inglês, que é de 160 palavras por minuto.
O próprio software (https://www.publico.pt/2019/04/25/ciencia/noticia/criado-implante-sintetizar-voz-directamente-partircerebro-1870426) tem ainda alguns erros, nomeadamente durante a passagem da actividade cerebral para o ecrã. Se fosse considerado um conjunto com 50 palavras, havia uma taxa de erro na translação do sistema de 9,1%. Já se o conjunto tivesse125.000 palavras, a taxa de erro era de 23,8%.
Com este estudo, a equipa da Universidade de Stanford obteve a prova de conceito científica dos sensores e do software (https://www.publico.pt/2017/02/01/ciencia/noticia/pacientes-paralisados-comunicaram-atraves-de-interface-cerebrocomputador-1760419). Por agora, o dispositivo está apenas licenciado para ser usado em investigação científica, mas a equipa espera que venha a ser comercializado por uma empresa.
“Esperamos que funcione em indivíduos com paralisia motora resultante de acidentes ou doenças, como o acidente vascular encefálico e a ELA”, assinala Erin Kunz, indicando que poderá ainda funcionar com outras doenças.
Para Pat Bennett, os resultados deste estudo já foram uma pequena vitória, como escreveu para um comunicado sobre o trabalho: “Imagine quão diferente será o [meu] dia-a-dia em actividades como ir às compras, encomendar comida, ir a um banco, falar ao telefone ou até expressar o meu amor ou gostos.”
O dispositivo da equipa da Universidade de Stanford não é caso único. Outros estudos têm vindo a demonstrar que é possível descodificar discurso verbal a partir da actividade cerebral de uma pessoa com paralisia, mas ainda há muitas limitações relativamente à velocidade com que é feita essa passagem ou ao rigor dos resultados.
Falar através de um avatar
Também esta semana, uma outra equipa de investigadores dos Estados Unidos publicou um outro estudo na Nature (https://www.nature.com/articles/s41586-023-06443-4) que mostra que um novo interface cérebro-computador (https://www.publico.pt/2017/02/01/ciencia/noticia/pacientes-paralisados-comunicaram-atraves-de-interface-cerebrocomputador-1760419) permite a uma pessoa com uma paralisia grave falar através de um avatar digital. Esse sistema permitiu que se descodificassem em um minuto cerca de 80 palavras a partir de sinais cerebrais — um valor superior ao de outros sistemas.
A equipa liderada por Edward Chang, da Universidade da Califórnia em São Francisco, já tinha mostrado resultados num outro estudo relativamente à descodificação de sinais cerebrais em texto em pessoas que tiveram acidentes vasculares encefálicos. Neste estudo, além de o valor das palavras por minuto ter sido superior, conseguiu-se passar a informação para avatares.
Como funcionou essa passagem? Foram colocados eléctrodos à superfície do cérebro de uma mulher com paralisia em áreas importantes para a fala. Esses eléctrodos, que estavam ligados a um computador, conseguiram interceptar os sinais cerebrais. Depois, algoritmos de inteligência artificial treinados para reconhecer sinais cerebrais ajudaram a fazer a passagem desses sinais para fonemas, que virão a ser palavras escritas completas. Por fi m, para que essas palavras pudessem ser ditas por uma avatar aviva voz, usou outros algoritmos e softwares que permitem que um avatar diga o que começou por ser transmitido no cérebro da pessoa.
Este dispositivo também ainda não está disponível no mercado, mas a equipa espera que em breve possa vir a ser aprovado pela FDA, a autoridade que regula os medicamentos e este tipo de dispositivos médicos nos Estados Unidos. “O nosso objectivo é restaurar a comunicação de forma completa e personificada, pois é essa a forma mais natural para nós de falarmos uns com os outros”, afirma, em comunicado, Edward Chang. “Esses avanços fazem com que isso esteja cada vez mais próximo de ser uma solução real para os doentes.”
Fonte: Público
Sem comentários:
Enviar um comentário