Científicos japoneses desarrollaron una tecnología capaz de extraer imágenes de alta definición del cerebro humano.
La revolución tecnológica parece haber dado otro un importante salto luego que expertos de la Universidad de Osaka lograra generar imágenes a partir de señales del cerebro humano.
Un estudio realizado por los científicos japoneses Yu Takagi y Shinji Nishimoto, determinó cómo convertir señales emitidas por el cerebro en imágenes de alta resolución. De acuerdo con los investigadores, para llevar a cabo este procedimiento se utilizaron modelos de difusión (DM) como Stable Diffusion para generar imágenes de alta definición a partir de la actividad del cerebro humano.
El articulado publicado por el equipo de la Escuela de Posgrado de Biociencias de Vanguardia de la Universidad de Osaka, examinó la conexión entre una visión artificial y el sistema visual humano para determinar la forma en que un cerebro humano procesa la información visual.
Lo más sorprendente es que los autores aseguraron que, a diferencia de otros estudios similares que capturaron la actividad visual en el cerebro humano, no necesitaron entrenar o ajustar los modelos de IA para generar las imágenes.
La revolución tecnológica parece haber dado otro un importante salto luego que expertos de la Universidad de Osaka lograra generar imágenes a partir de señales del cerebro humano.
Un estudio realizado por los científicos japoneses Yu Takagi y Shinji Nishimoto, determinó cómo convertir señales emitidas por el cerebro en imágenes de alta resolución. De acuerdo con los investigadores, para llevar a cabo este procedimiento se utilizaron modelos de difusión (DM) como Stable Diffusion para generar imágenes de alta definición a partir de la actividad del cerebro humano.
El articulado publicado por el equipo de la Escuela de Posgrado de Biociencias de Vanguardia de la Universidad de Osaka, examinó la conexión entre una visión artificial y el sistema visual humano para determinar la forma en que un cerebro humano procesa la información visual.
Lo más sorprendente es que los autores aseguraron que, a diferencia de otros estudios similares que capturaron la actividad visual en el cerebro humano, no necesitaron entrenar o ajustar los modelos de IA para generar las imágenes.
¿Cómo se llevó a cabo el estudio?
De acuerdo a los científicos se utilizó un modelo de señales de imagen por resonancia magnética funcional (fMRI), el cual se procesó y se le agregó ruido a través del proceso de difusión. Finalmente, los expertos decodificaron las representaciones de texto de señales de fMRI dentro de la corteza visual superior y las usaron como entrada para producir una imagen final.
“Los resultados sugieren que, al comienzo del proceso de difusión inversa, la información de la imagen se comprime dentro de la capa de cuello de botella. A medida que avanza la eliminación de ruido, surge una disociación funcional entre las capas de de la red dentro de la corteza visual: es decir, la primera capa tiende a representar detalles a escala fina en las primeras áreas visuales, mientras que la capa del cuello de botella corresponde a información de orden superior en áreas más ventrales y semánticas”, explicaron los expertos.
Debido a que la inteligencia artificial actúa de manera similar al ser humano, cuanto mayor sea el nivel de los estímulos, mayor será el nivel de ruido y mayor será la resolución de la imagen. Este estudio fue el primero en proporcionar una interpretación cuantitativa de un modelo con inteligencia artificialdesde una perspectiva biológica.
De acuerdo a los científicos se utilizó un modelo de señales de imagen por resonancia magnética funcional (fMRI), el cual se procesó y se le agregó ruido a través del proceso de difusión. Finalmente, los expertos decodificaron las representaciones de texto de señales de fMRI dentro de la corteza visual superior y las usaron como entrada para producir una imagen final.
“Los resultados sugieren que, al comienzo del proceso de difusión inversa, la información de la imagen se comprime dentro de la capa de cuello de botella. A medida que avanza la eliminación de ruido, surge una disociación funcional entre las capas de de la red dentro de la corteza visual: es decir, la primera capa tiende a representar detalles a escala fina en las primeras áreas visuales, mientras que la capa del cuello de botella corresponde a información de orden superior en áreas más ventrales y semánticas”, explicaron los expertos.
Debido a que la inteligencia artificial actúa de manera similar al ser humano, cuanto mayor sea el nivel de los estímulos, mayor será el nivel de ruido y mayor será la resolución de la imagen. Este estudio fue el primero en proporcionar una interpretación cuantitativa de un modelo con inteligencia artificialdesde una perspectiva biológica.
Fuente CARACOL RADIO