La Inteligencia Artificial le devolvió la voz a una paciente con accidente cerebrovascular después de casi dos décadas
En una investigación innovadora, un equipo de la Universidad de California utilizó implantes de inteligencia artificial en una paciente que le permitió «hablar». Esta maravilla médica ayudó a Ann Johnson, una mujer de 48 años que no podía hablar debido al derrame cerebral que sufrió en 2005.
Después de casi dos décadas, Ann pudo recuperar su voz, todo gracias a la inteligencia artificial. Ann actualmente ayuda a investigadores de UC Berkeley y UC San Francisco a crear nuevas tecnologías cerebro-computadora que algún día podrían permitir a las personas hablar de manera más natural con un avatar digital que imita a una persona.
Este último avance médico se publicó en Nature el 23 de agosto de 2023. Edward Chang, miembro del Instituto Weill de Neurociencias de la UCSF y ha trabajado en la tecnología, dijo:
“Nuestro objetivo es restaurar una forma de comunicación plena y encarnada, que es la forma más natural para nosotros de hablar con los demás. Estos avances nos acercan mucho más a hacer de esta una solución real para los pacientes”.
¿Cómo ayudó la inteligencia artificial al paciente a recuperar la voz?
Los científicos utilizaron una grabación de Ann hablando durante su boda como muestra para recrear sus inflexiones vocales y su tono para una comunicación lo más genuina posible.
Para lograr esto, el equipo insertó quirúrgicamente un rectángulo delgado como un papel de 253 electrodos en la superficie de su cerebro sobre regiones que previamente habían identificado como cruciales para el habla. Los electrodos bloquearon las señales cerebrales que, en ausencia del derrame cerebral, habrían llegado a la cara, los labios, la lengua, la mandíbula y los músculos laríngeos de Ann. Los electrodos estaban conectados a un banco de computadoras mediante un cable que estaba enganchado a un conector sujeto al cráneo de Ann.
Ann y los investigadores pasaron semanas programando los algoritmos de inteligencia artificial del dispositivo para reconocer sus señales cerebrales particulares al hablar. Fue necesario repetir varias frases de un repertorio de 1.024 palabras para entrenar a la computadora a identificar los patrones de actividad cerebral relacionados con los sonidos.
El equipo utilizó software creado por Speech Graphics, una empresa que produce animaciones faciales impulsadas por IA, para replicar y animar los músculos faciales en el avatar de Ann. Los investigadores desarrollaron algoritmos especializados de aprendizaje automático que permitieron que el software de la compañía se sincronizara con las señales que emanaban del cerebro de Ann mientras intentaba hablar y traducirlas en movimientos en la cara de su avatar.
La empresa está desarrollando ahora una versión inalámbrica para que el usuario no necesite estar conectado a los ordenadores.
Johnson recuperó su capacidad para realizar pequeños movimientos y provocar emociones faciales después de años de terapia. Pasó de utilizar una sonda de alimentación a alimentarse sola con alimentos blandos o picados. Y ahora, gracias a la inteligencia artificial, incluso puede “hablar”. Aún se desconoce cuándo los hospitales y las organizaciones de investigación médica comenzarán a utilizar esta tecnología con más frecuencia.
Deja una respuesta