Una nueva inteligencia artificial podrá grabar imágenes extraídas de tus sueños

Una imagen generada por inteligencia artificial

Científicos japoneses han descubierto cómo convertir las señales generadas por tu cerebro en imágenes de alta definición, un avance que eventualmente servirá para grabar tu imaginación y tus sueños

Una semana más, otra noticia de inteligencia artificial para volarnos la cabeza. Esta vez, literalmente: un equipo de científicos japoneses ha desarrollado una tecnología capaz de extraer imágenes de tu cerebro en alta definición. La tecnología es absolutamente increíble y abre camino a un futuro en el que seremos capaces de grabar lo que vemos, lo que imaginamos e incluso lo que soñamos.

Los resultados son asombrosos, como se pueden ver en las imágenes del estudio publicado por el equipo de la Escuela de Posgrado de Biociencias de Vanguardia de la Universidad de Osaka. Lo más sorprendente es que la tecnología — que utiliza Stable Diffussion, el motor de inteligencia artificial generativa más popular y poderoso del mundo en estos momentos — no ha tenido que ser entrenada para poder generar estas imágenes: ha aprendido por sí misma analizado las señales fMRI del córtex visual superior.

Un paso de gigante

Según los investigadores, su estudio no sólo es una visión fascinante de las increíbles posibilidades de la inteligencia artificial generativa, sino una manera de comprender mejor el complejo funcionamiento de estos modelos que — por el momento — siguen siendo una caja negra que muchas veces no podemos llegar a entender. Como apunta Motherboard, “el estudio ha sido el primero en proporcionar una interpretación cuantitativa del modelo [de IA] desde una perspectiva biológica.” En cierto modo, los modelos de IA tienen un comportamiento similar al del cerebro humano. Cuando más grande es el estímulo, por ejemplo, la imagen tiene mayor resolución.

Según los investigadores, los “resultados sugieren que, al comienzo del proceso de difusión inversa, la información de la imagen se comprime dentro de la capa de cuello de botella. A medida que avanza la eliminación de ruido, surge una disociación funcional entre las capas de de la red dentro de la corteza visual: es decir, la primera capa tiende a representar detalles a escala fina en las primeras áreas visuales, mientras que la capa del cuello de botella corresponde a información de orden superior en áreas más ventrales y semánticas". La tecnología sigue los pasos de otros estudios anteriores, como el de los científicos de la Universidad de California Berkeley, que realizaron un experimento similar aunque mucho más crudo y surrealista en 2011. En aquel experimento, el sistema fue capaz de capturar la actividad visual en el cerebro humano y reconstruirla como videoclips digitales. Según el profesor Jack Gallant, neurocientífico de UC Berkeley y coautor de la investigación publicada entonces en la revista Current Biology, "este es un gran salto hacia la reconstrucción de imágenes internas. Estamos abriendo una ventana a las películas en nuestras mentes".

El derrumbe entre consciente y subconsciente

En aquel experimento sí que se necesitó entrenamiento. Utilizaron tres sujetos diferentes que tuvieron que estar dentro de un sistema funcional de imágenes por resonancia magnética durante horas. Los sujetos fueron expuestos a dos grupos diferentes de tráileres de películas de Hollywood mientras el sistema de fMRI registraba el flujo sanguíneo del cerebro a través de la corteza visual de su cerebro. Las lecturas se volcaron en un sistema de inteligencia artificial en el que se dividieron en unidades de píxeles tridimensionales llamadas voxels (píxeles volumétricos). Este proceso decodifica eficazmente las señales cerebrales generadas por las imágenes en movimiento, conectando la información de forma y movimiento de las películas con acciones cerebrales específicas. A medida que avanzaban las sesiones, la computadora aprendió cada vez más sobre cómo la actividad visual presentada en la pantalla correspondía a la actividad cerebral.

El resultado del experimento de 2011 era mucho más crudo.

Después de grabar esta información, se utilizó otro grupo de clips para reconstruir los vídeos que se mostraban a los sujetos. El ordenador analizó 18 millones de segundos de vídeo aleatorio de YouTube, construyendo una base de datos de actividad cerebral potencial para cada clip. De todos estos vídeos, el software escogió los cien clips que causaron una actividad cerebral similar a los que el sujeto estaba viendo, combinándolos en una película final. Aunque el vídeo resultante es de baja resolución y borroso, coincidía claramente con los clips reales vistos por los sujetos. La nueva tecnología desarrollada por los científicos japoneses es mucho más precisa y elegante, ademas de no necesitar de ningún entrenamiento previo. Claramente, estamos avanzando hacia un futuro en el que no sólo la frontera entre verdad y ficción se derrumbará por completo sino que, además, los sueños podrán vivir en el mundo consciente, contribuyendo aún más al derrumbe de la realidad.

Fuente: El Confidencial