El avance científico del que hablaremos enseguida, ha sido llamado el «Santo Grial» de la informática, y no es por nada; los esfuerzos por imitar la mecánica neuronal del cerebro han llevado décadas enteras de investigación. Por vez primera se ha logrado un avance significativo en la integración tecnológica de las computadoras con uno de los procesos biológicos más exquisitos de la naturaleza: el del cerebro humano.
Es común observar que el funcionamiento del cerebro se
equipare al de los procesos informáticos, aunque aún diste mucho de que esto sea una realidad. Sobre todo
en la referente a las funciones tanto intelectivas como volitivas (voluntad).
Sin embargo, investigadores de distintas universidades han
desarrollado la tecnología informática que emplea la luz para imitar la
funcionalidad sináptica de un nervio cerebral, lo cual abre el camino para producir
el hardware que recrea el funcionamiento de los procesadores modernos, parecido
la eficiencia de la capacidad intelectual.
Actualmente cerebros y computadoras son sistemas que pueden
modelar, manipular y almacenar información, pero además de esto, no tienen
mucho en común.
Mientras que los actuales procesadores de computadoras combinan
impulsos eléctricos con pequeños interruptores de encendido y apagado para
realizar las funciones, las neuronas utilizan «mareas bioquímicas» para
distribuir impulsos a través de múltiples canales de las llamadas sinapsis.
La diferencia es
significativa respecto a la relación de la memoria con consumo de energía presentado
en investigaciones previas; ahora, sin necesidad de hardware, puede acercarse a
las capacidades de eficiencia y de almacenamiento del cerebro humano.
Así, el equipo de investigadores de las universidades de
Oxford, Münster y Exeter ha revelado la creación de un circuito integrado
fotónico que actúa como la sinapsis cerebral.
«El desarrollo de los ordenadores que funcionan más como el
cerebro humano ha sido el ‘Santo Grial’ de los científicos durante décadas», dice el
investigador principal Harish Bhaskaran de la Universidad de Oxford.
«A través de una red de neuronas y sinapsis, el cerebro
puede procesar y almacenar grandes cantidades de información de forma
simultánea, utilizando sólo unas pocas decenas de vatios de potencia.
Ordenadores convencionales no pueden acercarse a este tipo de rendimiento»,
reconoce Bhaskaran.
Para obtener ayuda técnica, el equipo se basa en la
arquitectura von Neumann , llamado así por el famoso matemático y
físico John von
Neumann; en él existen unidades de procesadores para el manejo de la lógica
y memoria.
En efecto, el cerebro no tiene una CPU en la parte delantera
y un disco duro en la parte posterior; en realidad, las neuronas están conectadas
en una red de ramificación, separadas por pequeños puentes sinápticos, más parecidos a los procesadores y dispositivos de almacenamiento todo-en-uno.
Para funcionar, los canales de la membrana del nervio de
apertura y cierre, envían ondas de iones con carga negativa dentro y fuera de
una ola de bajo voltaje, mediados por otros procesos químicos en las puntas de
las ramas del nervio.
En condiciones normales, y dependiendo de factores tales como la fuerza o la frecuencia, las oleadas de neurotransmisores pueden seguir un mensaje, saltando hacia otros nervios. Ese pequeño salto en el extremo de un nervio, al final del procesamiento neural, actúa como un agente de control de tráfico
que detiene o acelera la señal.
Descrito como la plasticidad
sináptica, los cambios en este punto de control pueden dar cuenta de la
manera de aprender y procesar nueva información, el fortalecimiento de algunos
circuitos, al tiempo que permite que otros concluyan su cliclo vital.
La llamada computación neuromórfica aspira a replicar esta forma de combinar el
procesamiento y la memoria en un solo sistema, con lo que la biología y la
inteligencia artificial, están cada vez más cerca. La manera de lograrlo ha sido a través de un procesador que puede imitar la función de la sinapsis.
«Dado que las sinapsis superan en número a las neuronas en
el cerebro por alrededor de 10.000 a 1, cualquier ordenador-cerebro es capaz de reproducir la funcionalidad sináptica. Eso es lo que
hemos hecho aquí», dice Wolfram
Pernice de la Universidad de Münster.
La sinapsis artificial del equipo se basa en estructuras
hechas de un material
de cambio de fase (PCM), que almacena y libera cantidades
significativas de energía, ya que cambia de un estado a otro.
Las ondas de luz se canalizan a través del material, con
pulsos ópticos de conmutación de la PCM de tal manera que imita la plasticidad
de una sinapsis.
Cierto es que estos conceptos no son nuevos, sin embargo, esta es la primera vez que el proceso se ha realizado en la práctica.
«Las computadoras electrónicas son relativamente lentas, y a mayor velocidad, mayor es la demanda de energía», dice el
investigador David C. Wright de la Universidad de Exeter.
«Además, los equipos de cómputo convencionales son también bastante
'tontos', sin ninguna de las capacidades de aprendizaje incorporado y
procesamiento paralelo del cerebro humano.», agregó Wrigth.
En este sentido, los procesadores neuromórficos basados en
la luz parecen ser la fusión perfecta de la mente y la máquina.
Artículo escrito con información publicada en: la ciencia
avanza.