Três cientistas dos Estados Unidos desenvolveram uma nova interface cérebro-computador que consegue transformar a atividade cerebral em fala. Por agora, a equipa só testou este implante em pessoas com voz e demonstrou – num artigo na revista científica Nature – que é possível sintetizar a sua fala diretamente a partir de sinais do cérebro. No futuro, espera-se que este dispositivo seja usado para devolver a voz a pessoas com essa incapacidade.
Quando se fala em sintetizadores de voz, quase sempre nos vem à cabeça o de Stephen Hawking (1942-2018). O físico – que tinha esclerose lateral amiotrófica – falava com a ajuda de um sintetizador de voz e de um computador integrado na cadeira de rodas. Como fazia? Escolhia as palavras que queria transmitir através do movimento dos músculos das suas bochechas. “O movimento das minhas bochechas é detetado por um interruptor de infravermelhos que está montado nos meus óculos. Este interruptor é a única interface com o computador”, descreveu Stephen Hawking no seu site.
Logo no início do artigo da Nature, os cientistas salientam a importância deste tipo de dispositivos: “As doenças neurológicas que levam à perda de comunicação são devastadoras. Muitos doentes dependem de aparelhos de comunicação alternativos que analisam pequenos movimentos não verbais na cabeça e olhos ou de interfaces cérebro-computador.” Ao mesmo tempo, aponta-se um problema: muitos utilizadores desses aparelhos têm dificuldades em transmitir mais de dez palavras por minuto, enquanto no “discurso natural” se utilizam 150 palavras por minuto. “Uma alternativa promissora é sintetizar directamente a voz a partir da actividade cerebral”, lê-se no artigo.
Como tal, uma equipa liderada por Edward Chang (da Universidade da Califórnia, nos Estados Unidos) tinha o objetivo de mostrar a “viabilidade” de um implante que conseguisse transformar os sinais do cérebro num discurso sintetizado ao nível de um falante fluente, como se conta no artigo.
Gopala Anumanchipalli (também autor do estudo e da Universidade da Califórnia, em São Francisco) explica (...) que houve uma descoberta fundamental que precedeu este estudo: “Em 2018, percebemos que o córtex motor orquestra um movimento particularmente coordenado no trato vocal [nomeadamente na mandíbula, laringe, lábios e língua] quando se está a falar.”
A equipa desenvolveu então um método para sintetizar a voz de uma pessoa através de sinais cerebrais relacionados com os movimentos do trato vocal. As experiências foram feitas com cinco voluntários – com voz – do Centro de Epilepsia da Universidade da Califórnia, que já tinham elétrodos implantados na superfície do cérebro, pois estavam a preparar-se para uma neurocirurgia para controlar as suas convulsões.
Nesta experiência, através dos elétrodos, a equipa começou por gravar a atividade no córtex do cérebro dos voluntários enquanto eles liam frases e histórias em voz alta. Depois, a partir das gravações, criou-se um sistema que utiliza inteligência artificial – através de machine learning (aprendizagem automática) – capaz de descodificar os sinais cerebrais dos movimentos do trato vocal dos voluntários. Por fim, conseguiu-se sintetizar a voz a partir da descodificação desses movimentos. Qual o resultado? Verificou-se que a voz sintetizada através de aprendizagem automática é “significativamente melhor” do que a voz sintetizada sem o recurso a essa tecnologia, refere-se num comunicado da Universidade da Califórnia.
Gopala Anumanchipalli realça ainda que também se conseguiu sintetizar a voz de participantes que estavam em silêncio e apenas mimetizaram os movimentos da fala.
Biologia do discurso
“A nossa abordagem mimetiza a biologia do discurso. Neste caso, simula-se a forma como o cérebro humano normalmente produz voz ao orquestrar os movimentos complexos do tracto vocal”, resume Gopala Anumanchipalli. De acordo com o cientista, este estudo demonstra que o código neuronal para os movimentos do trato vocal é parcialmente partilhado entre os indivíduos. Desta forma, através da modelação de um trato vocal artificial, poderá usar-se a voz de uma pessoa na atividade cerebral de outra que não consiga falar.
Contudo, Gopala Anumanchipalli reconhece que neste estudo apenas “se demonstra a prova de conceito” de que é possível sintetizar o discurso diretamente a partir da atividade cerebral. Ao que Edward Chang afirma: “Esta é uma estimulante prova de conceito de que, com tecnologia que já está ao nosso alcance, podemos ser capazes de construir um aparelho que é clinicamente viável em doentes que não conseguem falar.”
Em futuros estudos, a equipa pretende adaptar então esta tecnologia a pessoas que não conseguem falar. Espera-se ainda que com esta abordagem se possa não apenas devolver a voz a pessoas com essa incapacidade, mas também que essa voz tenha “alguma da musicalidade da voz humana, permitindo exprimir emoções e personalidade”, destaca-se no comunicado.
Num comentário a este trabalho – também na revista Nature – Chethan Pandarinath e Yahia Ali (ambos da Universidade de Emory, nos Estados Unidos, e que não participaram no estudo) escrevem: “Os resultados da equipa de Anumanchipalli fornecem-nos uma convincente prova de conceito para uma interface cérebro-computador que sintetiza a voz.” Contudo, reforçam que ainda há um longo caminho para se perceber se é “clinicamente viável”.
Ainda sobre este estudo, Gopala Anumanchipalli deixa uma nota: “Estou orgulhoso de que tenhamos sido capazes de juntar o conhecimento da neurociência, da linguística e da machine learning como parte deste importante marco para ajudar doentes neurológicos.”
Fonte: Público
Sem comentários:
Enviar um comentário