Saltar al contenido

El principio de energía libre puede explicar cómo las redes neuronales se optimizan para la eficiencia


El Centro RIKEN para la Ciencia del Cerebro (CBS) en Japón, junto con sus colegas, ha demostrado que el principio de energía libre puede explicar cómo se optimizan las redes neuronales para lograr la eficiencia.

Publicado en la revista científica Biología de las Comunicaciones, el estudio muestra primero cómo el principio de energía libre es la base de cualquier red neuronal que minimice el costo de la energía. Luego, como prueba de concepto, muestra cómo una red neuronal que minimiza la energía puede resolver laberintos. Este hallazgo será útil para analizar la función cerebral deteriorada en los trastornos del pensamiento, así como para generar redes neuronales optimizadas para inteligencias artificiales.

La optimización biológica es un proceso natural que hace que nuestros cuerpos y nuestro comportamiento sean lo más eficientes posible. Un ejemplo de comportamiento se puede ver en la transición que hacen los gatos de correr a galopar. Lejos de ser aleatorio, el cambio ocurre precisamente a la velocidad en que la cantidad de energía que se necesita para galopar se vuelve menor que la que se necesita para correr. En el cerebro, las redes neuronales se optimizan para permitir un control eficiente del comportamiento y la transmisión de información, al mismo tiempo que mantienen la capacidad de adaptarse y reconfigurarse a entornos cambiantes.

Al igual que con el simple cálculo de costo/beneficio que puede predecir la velocidad a la que un gato comenzará a galopar, los investigadores de RIKEN CBS están tratando de descubrir los principios matemáticos básicos que subyacen a cómo las redes neuronales se autooptimizan. El principio de energía libre sigue un concepto llamado inferencia bayesiana, que es la clave. En este sistema, un agente se actualiza continuamente con nuevos datos sensoriales entrantes, así como con sus propios resultados o decisiones anteriores. Los investigadores compararon el principio de la energía libre con reglas bien establecidas que controlan cómo la fuerza de las conexiones neuronales dentro de una red puede verse alterada por cambios en la información sensorial.

Pudimos demostrar que las redes neuronales estándar, que cuentan con una modulación retardada de la plasticidad de Hebbian, realizan la planificación y el control del comportamiento adaptativo teniendo en cuenta sus «decisiones» anteriores. Es importante destacar que lo hacen de la misma manera que lo harían al seguir el principio de energía libre.

Takuya Isomura, primer autor del estudio y líder de unidad, RIKEN

Una vez que establecieron que las redes neuronales siguen teóricamente el principio de energía libre, probaron la teoría mediante simulaciones. Las redes neuronales se autoorganizan cambiando la fuerza de sus conexiones neuronales y asociando decisiones pasadas con resultados futuros. En este caso, se puede considerar que las redes neuronales se rigen por el principio de energía libre, lo que le permitió aprender la ruta correcta a través de un laberinto a través de prueba y error de una manera estadísticamente óptima.

Estos hallazgos apuntan hacia un conjunto de reglas matemáticas universales que describen cómo las redes neuronales se autooptimizan. Como explica Isomura, «nuestros hallazgos garantizan que una red neuronal arbitraria puede convertirse en un agente que obedece el principio de energía libre, proporcionando una caracterización universal para el cerebro». Estas reglas, junto con la nueva técnica de ingeniería inversa de los investigadores, se pueden utilizar para estudiar redes neuronales para la toma de decisiones en personas con trastornos del pensamiento como la esquizofrenia y predecir los aspectos de sus redes neuronales que han sido alterados.

Otro uso práctico para estas reglas matemáticas universales podría ser en el campo de la inteligencia artificial, especialmente aquellas que los diseñadores esperan que puedan aprender, predecir, planificar y tomar decisiones de manera eficiente. «Nuestra teoría puede reducir drásticamente la complejidad del diseño de hardware neuromórfico de autoaprendizaje para realizar varios tipos de tareas, que serán importantes para una inteligencia artificial de próxima generación», dice Isomura.

RSS
Follow by Email
YouTube
Pinterest
LinkedIn
Share
WhatsApp