Avanços impressionantes nas Interfaces Cérebro-Computador revelam como a inteligência artificial decodifica pensamentos em palavras! Descubra essa revolução científica!
Desde 1969, quando o neurocientista americano Eberhard Fetz provou que um macaco poderia mover a agulha de um medidor ao controlar a atividade de um único neurônio, a comunicação direta entre cérebro e máquina se tornou uma realidade. As interfaces cérebro-computador (BCIs) evoluíram significativamente ao longo dos anos, passando do registro de neurônios isolados para a captação de redes neurais complexas, utilizando algoritmos de aprendizado profundo para traduzir padrões neurais em palavras e frases.
CONTINUA DEPOIS DA PUBLICIDADE
Em agosto de 2025, um estudo conduzido por pesquisadores da Universidade Stanford (EUA) trouxe um avanço importante nesse campo. A pesquisa mostrou que padrões neurais relacionados à fala interna, ou seja, palavras apenas pensadas, podiam ser decodificados com precisão por modelos de inteligência artificial.
Os cientistas registraram sinais de microeletrodos implantados no córtex motor da fala de quatro pacientes com paralisia severa, revelando que tanto a tentativa de falar quanto a imaginação de palavras ativavam áreas cerebrais semelhantes.
CONTINUA DEPOIS DA PUBLICIDADE
Com base nesses dados, a equipe treinou modelos de IA para interpretar palavras imaginadas. Em testes, a BCI conseguiu decodificar frases de um vocabulário de até 125 mil termos, alcançando uma precisão de 74%, incluindo respostas não ensaiadas, como números contados mentalmente.
Essa pesquisa representa um avanço significativo na identificação de elementos de linguagem na atividade cerebral, mesmo sem movimento físico.
Além do foco em linguagem, um estudo liderado por Yu Takagi, do Nagoya Institute of Technology, busca reconstruir imagens percebidas a partir de sinais cerebrais. Publicado em 2024, o trabalho combina ressonância magnética funcional com modelos generativos de IA.
Os participantes, sem intervenções cirúrgicas, observavam imagens enquanto seus padrões de atividade cerebral eram registrados, permitindo que os pesquisadores previssem a que vetor latente cada padrão correspondia.
Os avanços não se limitam a palavras e imagens; a ciência também está progredindo na reconstrução de experiências auditivas. Em 2025, Takagi utilizou um modelo de áudio do Google para reproduzir sons a partir de fMRIs enquanto participantes ouviam música.
Enquanto isso, a neuroengenheira Maitreyee Wairagkar, da Universidade da Califórnia, em Davis, focou na decodificação de aspectos não verbais da fala, como entonação e ritmo, permitindo que a máquina transmitisse emoções e expressões autênticas.
Essas inovações têm um potencial imenso, incluindo a possibilidade de entender condições psiquiátricas complexas. Takagi menciona que, no futuro, técnicas semelhantes poderiam até recriar alucinações visuais e auditivas em pacientes com esquizofrenia.
Ele também destaca o crescente interesse na reconstrução de sonhos, embora ressalte que essas possibilidades levantam questões éticas e dilemas de direitos humanos que ainda precisam ser discutidos.
Apesar das promessas, Takagi alerta que as aplicações comerciais voltadas para entretenimento ou comunicação perfeita podem levar de dez a vinte anos para se concretizar. O próximo passo é superar as limitações técnicas atuais, garantindo que os avanços sejam realizados de forma ética e responsável.
Autor(a):
Apaixonada por cinema, música e literatura, Júlia Mendes é formada em Jornalismo pela Universidade Federal de São Paulo. Com uma década de experiência, ela já entrevistou artistas de renome e cobriu grandes festivais internacionais. Quando não está escrevendo, Júlia é vista em mostras de cinema ou explorando novas bandas independentes.