El modelo de los científicos del GIPSA-Lab (CNRS/Université Grenoble Alpes/Grenoble INP) y del INRIA Grenoble Rhone-Alpes, captura el movimiento a través de una sonda ecográfica colocada debajo de la mandíbula.
Después de recopilados, los datos se procesan mediante un algoritmo de aprendizaje automático que permite pilotar una especie de “cabeza parlante articulatoria”, publicó el Centro de Investigación y de Estudios Avanzados (Cinvestav) del Instituto Politécnico Nacional (IPN) en su revista de divulgación.
Además del rostro y los labios, el sistema también muestra la lengua, el paladar y los dientes, lo que permite a los pacientes observar sus movimientos en tiempo real, con el propósito de que se hagann conscientes de ellos para que corrijan de forma rápida los problemas de pronunciación.
Los investigadores indican que la innovación de este método radica en el algoritmo de aprendizaje automático empleado, el cual permite, en ciertos límites, procesar los movimientos articulatorios que los pacientes no puedan controlar.
Actualmente el sistema se ha probado y validado en personas que no tienen problemas de aprendizaje ni de salud, sin embargo, los investigadores trabajan para emplearlo en pacientes que hayan tenido una intervención quirúrgica en la lengua.