Parloteamos todo el rato como si fuera cosa de poco, pero convertir la compleja combinación de información enviada desde el cerebro a todas las partes del cuerpo involucradas para conseguir emitir sonidos inteligibles no es para nada una hazaña menor.

Los labios, la lengua, la garganta, la mandíbula, la laringe y el diafragma deben trabajar juntos en sincronía casi perfecta, lo que requiere que nuestro cerebro se convierta en un director de orquesta cuando se trata de pronunciar incluso las frases más simples.

Que algo falle en todo ese proceso es relativamente fácil y por ello no todos tenemos la capacidad de hablar. En esos casos, la tecnología puede ayudarnos y ahora con un nuevo algoritmo que convierte los mensajes cerebrales para los músculos en sonidos, mucho más.

Ya había diferentes formas de traducir los impulsos cerebrales en sonido. En la Universidad de Columbia reconstruyeron palabras sílaba a sílaba basándose directamente en la percepción del cerebro de los sonidos en la corteza auditiva. Pero el habla sintética producida de esta manera se entendía las tres cuartas partes de las veces, que no está mal dadas las circunstancias.

Pero convertir las palabras a medida que nuestro cerebro las genera en habla real es muy difícil, puedes aparecer distorsiones que dificultan la comprensión de las palabras. Por eso a investigadores de la Universidad de California, San Francisco (UCSF) se les ocurrió revisar una investigación anterior. ¿Podrían descifrar las señales que el cerebro envía al cuerpo y luego averiguar en qué sonidos se convertirían? Pensaron que la traducción de los movimientos musculares permitiría un resultado más claro y más fácil de interpretar.

Telepathy

Francesco Carta fotografoGetty Images

Para probar su idea, los investigadores reclutaron a cinco voluntarios que ya se iban a someter a una cirugía cerebral para tratar su epilepsia crónica y como parte de la operación se les implantó una serie de electrodos en la superficie de su cerebro y sensores en su lengua, dientes y labios para realizar un seguimiento de sus movimientos.

Una vez que todos estuvieron conectados, los sujetos leyeron cientos de palabras y oraciones de una base de datos de reconocimiento de voz, así como varios pasajes de cuentos famosos como La Bella Durmiente y la Liebre y la Tortuga para generar un mapa de movimientos con el que se elaboró un partitura para el sintetizador de voz.

Los resultados son espectaculares:

Fuente: Nature

Esther Sánchez