¿Puede un ordenador convertir tus pensamientos en texto?

Leer los pensamientos de una persona aún pertenece al ámbito de la ciencia ficción. Sin embargo, pudiera estar más cerca de lo que parece. Los científicos ya están decodificando las señales generadas en nuestro cerebro cuando hablamos o escuchamos a alguien y, muy pronto, los ordenadores podrían convertir los pensamientos de una persona en texto o en discurso sin necesidad de que diga una sola palabra.

Christian Herff y Tanja Schultz, del departamento de Matemáticas y Ciencias de la Computación de la Universidad de Bremen, han analizado las diferentes técnicas que reconocen las señales neuronales y las convierten en texto. El trabajo fue publicado en la revista especializada Frontiers in Human Neuroscience.

Entre las diferentes tecnologías analizadas, las hay basadas en la resonancia magnética funcional y en técnicas de imagen de infrarrojo cercano que detectan las señales neuronales a partir de la actividad metabólica de las neuronas. Otro método estudiado detecta la actividad electromagnética de las neuronas en respuesta a la voz.

Sin embargo, de todos los métodos actuales, los autores destacan la electrocorticografía. Esta técnica utiliza un sistema cerebro-a-texto, demostrado en pacientes con epilepsia que ya tenían electrodos implantados para el tratamiento de su condición. Los pacientes leyeron textos de una pantalla que se encontraba delante de ellos mientras se registraba su actividad cerebral. A partir de aquí, se creó una base de datos con patrones de señales neuronales que podían ser equiparados a elementos del habla. Cuando los investigadores incluyeron en sus algoritmos los modelos de lenguaje y de diccionario (qué sonido y qué palabra es más probable que siga otro sonido y a otra palabra), fueron capaces de decodificar las señales neuronales y convertirlas en texto con un alto grado de precisión.

siri

Imagen: Toshiyuki IMAI

La alta resolución espacial y temporal de esta técnica, junto con otros factores, la convierte en la técnica ideal para desarrollar el sistema cerebro-a-texto. Sin embargo, aún hay muchos elementos que superar. Mientras que la producción del habla y del habla imaginado pueden producir respuestas neuronales similares en las áreas motoras del cerebro y las áreas de planificación del habla, la actividad neuronal observada en la corteza auditiva del cerebro es muy diferente, ya que los participantes no oyen su propia voz cuando piensan que se imaginan hablando.

Los resultados del estudio son, sin embargo, un paso preliminar hacia este tipo de interfaz cerebro-ordenador. Sistemas que puedan leer nuestras mentes podrían mejorar las capacidades de interfaces de voz ya existentes, como Siri y Google Ok. Sin embargo, podría ser incluso más importante para las personas con dificultades en el habla, y más aún, para los pacientes que carecen de cualquier expresión o función motora.

No obstante, al hablar de este tipo de tecnologías se manifiesta un miedo latente: ¿dejarán de ser privados nuestros pensamientos?

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s