Las interfaces de voz, que permiten la interacción humana con ordenadores para iniciar procesos o servicios automatizados, son hoy algo cotidiano. Incluso las llevamos a todos lados en nuestros bolsillos, ya que forman parte de las herramientas que la mayoría de los smartphones actuales ofrecen a sus usuarios, como los iPhone, que las utilizan para activar a su asistente personal Siri.
Sin embargo, esta tecnología aún presenta varias complicaciones que tienen que ver con lo que la máquina no entiende, ya sea porque el usuario se encuentra en un entorno muy ruidoso o por la complejidad de la frase. Esto también resulta un obstáculo para quienes presentan trastornos del habla o del lenguaje. ¿Cómo resolver este problema?
Dos investigadores alemanes de la Universidad de Bremen consideran que la clave está en el pensamiento, es decir, en permitir que las computadoras ‘lean’ nuestra mente para que, automática y precisamente, sepan lo que queremos. Así lo dieron a conocer Cristiano Herff y Tanja Schultz en su estudio, publicado en la revista Frontiers in Neuroscience, en el cual analizan cómo lograrlo.
Interfaces Cerebro-Computadora
Gracias a los asistentes personales —como Siri, Google Now y Cortana—, las interfaces de voz son utilizadas diariamente por millones de usuarios, quienes pueden llegar a ellas fácilmente desde cualquiera de sus gadgets. Lo contrario sucede con las Interfaces Cerebro-Computadora (BCI) que apenas son accesibles para unos cuantos y aún emplean técnicas muy básicas de mapeado cerebral.
Como las interfaces de voz, las BCI enfrentan limitantes. Tal es el caso del número de ‘estados mentales’ que son capaces de detectar, los cuales varían entre una opción binaria (‘sí’ o ‘no’) u opciones con cierta probabilidad de acierto, por ejemplo, al pensar en la zona de una pantalla. Una acción compleja como es escribir una frase puede convertirse en una tarea que requiere que el usuario se concentre en una sola palabra o letra a la vez.
Interfaces Cerebro/Voz-Computadora
En un punto intermedio entre las interfaces de voz y las Cerebro-Computadora es en donde Herff y Schultz se sienten más seguros. Los científicos llegaron a esta conclusión tras poner a prueba ambas tecnologías por separado y, después, en conjunto con ayuda de un grupo de voluntarios con trastornos del habla o del lenguaje.
El ordenador obtuvo los mejores resultados al ser capaz de obtener los datos de dos formas diferentes, pero simultáneas, para cotejarlos: por un lado, aquellos ‘en bruto’ que proceden del cerebro; por otro, los sonidos a través de micrófonos. Así, si el usuario pronunció la palabra ‘coche’ como ‘ko-e’, que podría confundirse con otros conceptos —como ‘coge’—, la computadora pudo comparar el audio con la información con origen en la mente de la persona para elegir la conclusión más acertada.
Con base en este trabajo, los expertos alemanes esperan poder ayudar próximamente a personas con dificultades para comunicarse.
¿Te gustó esta información? Consigue más en nuestro boletín, ¡suscríbete!
Fuente: https://tecreview.tec.mx
No hay comentarios:
Publicar un comentario