Jack Gallant y Shinji Nishimoto del laboratorio Gallant fueron capaces de “leer la mente” tras descifrar y reconstruir la experiencia visual humana.

Investigadores de la Universidad de California (Berkeley) han desarrollado un algoritmo que puede ser aplicado a imágenes de resonancia magnética funcional  para reconstruir  videos de You Tube de la actividad cerebral de los espectadores, ha informado World Bulletin.

Jack Gallant, líder del estudio neurocientífico de la Universidad de California, y Shinji Nashimoto, un investigador con post grado del laboratorio Gallant, fueron capaces de “leer la mente” tras descifrar y reconstruir la experiencia visual humana.

Sin embargo, ellos también fueron cautos de señalar que cualquier tecnología que permita  leer los pensamientos e intenciones de las demás personas está por lo menos a unas décadas de distancia.

El estudio, el cual aparece en la revista “Current Biology” esta semana, representa la primera vez que alguien ha usado imágenes del cerebro para determinar  qué imágenes en movimiento está viendo una persona.  Esto podría ayudar a investigadores a modelar el sistema visual humano en una computadora, y esto eleva  la tentadora esperanza de un día ser capaces de usar el modelo para reconstruir otros tipos de imágenes dinámicas, como los sueños y recuerdos.

Jack Gallant, neurocientífico de la Universidad de California, en Berkeley, y coautor del estudio, calificó los resultados como un “un gran salto hacia la reconstrucción de las imágenes internas”, agregando que “estamos abriendo una ventana dentro de las películas de nuestra mente”, reportó el sitio web.

“Una vez tengamos este modelo construido, nosotros podremos leer la actividad cerebral para este tema y ponerlo en marcha hacia atrás a través del modelo para intentar descubrir lo que el espectador vió”, agregó Gallant.

“Si puedes descifrar las películas que las personas vieron, tú podrás ser capaz de descifrar cosas en el cerebro que son como películas pero que no tienen analogía en el mundo real, como los sueños”, declaró Gallant.

“El cerebro no es solo una gran masa de tejido. Este en realidad consiste en docenas, incluso centenas de módulos,  cada cual realiza una cosa distinta,” advirtiéndolo, Gallant espera ver más modelos visuales y tratar de construir modelos para cada parte individual del sistema visual.

Si la tecnología puede también ser usada para observar los sueños o memorias de las personas, incluso intenciones, depende de que tan próximas sean esas experiencias visuales a la realidad. “Nosotros simplemente no lo sabemos en este momento. Pero es nuestra siguiente línea de investigación” anotó Gallant.

Shinji Nishimoto, un neurocientífico en el laboratorio Gallant y autor principal del estudio, dijo que los resultados  arrojan luces sobre como el cerebro entiende y procesa experiencias visuales.

“Necesitamos conocer cómo funciona el cerebro humano en condiciones naturales”, dijo Nashimoto en una declaración. “Para eso, necesitamos primero entender cómo trabaja el cerebro humano mientras vemos películas.”

“Nuestra experiencia visual natural es como ver una película”, explicó Shinji Nishimoto. “Para que esta tecnología tenga amplia aplicación, debemos entender cómo procesa el cerebro estas experiencias visuales dinámicas”, agregó.

Por último, Nishimoto dijo que los científicos necesitan entender cómo el cerebro procesa eventos visuales dinámicos que experimentamos en nuestra vida diaria.

Fuente :http://www.koreatimes.co.kr  - Traducción: E




Leave a Reply.