Un cerebro en un chip: Computación Neuromórfica

Inteligencia Artificial

En esta última década, la Inteligencia Artificial (IA) y las aplicaciones que se basan en ella, como pueden ser el aprendizaje automático y el procesamiento del lenguaje natural han estado revolucionando muchas industrias y nuestra vida cotidiana. A medida que la potencia de cómputo de los ordenadores continúa mejorando, y se almacenan más y más datos, la capacidad y las posibilidades de la Inteligencia Artificial crece de forma exponencial. Sin embargo, hay una demanda de un progreso en el campo de la Inteligencia Artificial mucho más rápido que el actual y los profesionales del área ya están analizando cuáles podrían ser las próximas olas de desarrollo.

 Las nuevas tecnologías, como la informática de vanguardia y las redes 5G, se basan en respuestas instantáneas que no pueden permitir una latencia y los cuellos de botella que son inherentes a los centros de datos típicos. En la actualidad se está desarrollando un nuevo tipo de aprendizaje automático, la computación neuromórfica, que cuando se lance al mercado va a acelerar la innovación en este campo.

¿En qué contexto se encuentra el machine learning?

Antes de adentrarnos en el mundo de la computación neuromófica, sería interesante indicar a qué nos referimos con aprendizaje automático. Cuando hablamos del aprendizaje automático como una aplicación de la Inteligecia Artificial, nos referimos al uso de datos para poder crear modelos predictivos y tomar decisiones. Por ejemplo, Spotify o Netflix predicen qué programas nos gustarían, o Instagram qué tipo de fotos preferimos, las fábricas pueden identificar cuáles son las condiciones óptimas para que las máquinas tengan los mejores resultados. El Aprendizaje automático está basado en la alimentación de datos y generalmente dispone de unos conjuntos de reglas predefinidas para poder trabajar.

El problema que nos solemos encontrar con el aprendizaje automático en la actualidad es que no comprende el concepto del mundo como lo hace un cerebro humano. Por ejemplo, un ordenador puede conectar un evento a algo que sucedió antes de usar sus datos, pero a diferencia del cerebro humano, tiene muchas dificultades cuando tiene que poner una nueva conexión o un nuevo evento en un contexto determinado.

Los sistemas neuromórficos tienen como objetivo replicar el funcionamiento del cerebro humano. Están diseñados para recibir imágenes y sonidos de una forma en la que la Inteligencia Artificial, nunca antes había dispuesto. Las plataformas tradicionales de Inteligencia Artificial y Aprendizaje Automático han sido brillantes al hacer predicciones sólidas sobre los problemas que son cuantificables o se pueden expresar mediante números, pero fallan cuando el desafío necesita ir más allá.

La informática neuromórfica se basa en el concepto de un “cerebro en un chip”. Mientras que el aprendizaje automático y las teorías más complejas, como el aprendizaje profundo, se basan en las decisiones de alcance, la tecnología neuromórfica intenta copiar literalmente la forma de un cerebro humano. Esto hace que, además de tomar decisiones, puede almacenar información y deducir cosas por sí mismo. Un sistema neuromórfico puede identificar patrones en datos visuales o auditivos e ir ajustando sus predicciones en función de lo que va aprendiendo con el tiempo.

Intel es uno de los líderes en la carrera para desarrollar el primer sistema neuromórfico que dispondría de una arquitectura que permitiría hacer a las máquinas hacer cosas que ahora son impensables con los chips de silicio.Por ejemplo, un artículo del científico de Intel Charles Augustine ha sugerido que las máquinas neuromórficas podrán manejar tareas poderosas como la computación cognitiva, la inteligencia artificial adaptativa y los datos de detección. Más allá de las tareas, lo hará con 15-300 veces menos energía que los chips actuales.

IBM es otro de los grande jugadores en la vanguardia de la tecnología neuromórfica. A principios de 2019, IBM lanzó su plataforma de computación cuántica de código abierto que puede ofrecer más potencia a los que buscan desarrollar empresas de inteligencia artificial y al Big Data. Además, IBM tiene un Proyecto de Dispositivos y Arquitecturas Neuromórficos desarrollando nuevos experimentos en computación analógica.

¿Cómo puede la computación neuromórfica transformar la Inteligencia Artificial?

Cualquier aplicación de Inteligecia Artificial exitosa se basa en la computación en la nube, en volúmenes masivos de datos de los que obtener patrones, velocidad y latencia. Los dispositivos de Internet de las cosas (IoT) son probablemente el mejor ejemplo. Los usuarios de Alexa de Amazon, o del Google Home lo que esperan es que cualquier respuesta a sus peticiones sea atendida al instante. Para conseguirlo, las redes entre el lugar en el que se genera el comando de voz y los datos tienen que ser extremadamente potentes y eficientes para que la respuesta se produzca en el tiempo esperado. Aunque los teléfonos inteligentes han asumido algunos de los aspectos de la Inteligencia Artificial, no tienen la potencia de cómputo necesaria para algoritmos “cerebrales” más complejos y si pudieran hacer, por la potencia necesaria agotarían las baterías.

Un chip neuromórfico utiliza menos energía y mejora el rendimiento en comparación de un chip de convencional debido a cómo ha sido diseñado. La informática neuromórfica utiliza un nuevo tipo de modelo imita mejor el cerebro humano. En lugar de pasar información de un transistor al siguiente, una red neuromórfica consiste en millones de “neuronas” (similar a la estructura biológica del cerebro) que puede pasar la información en cualquier dirección.

El apunte técnico

La razón por la que un modelo neuromórfico es más eficiente es por la forma en la que utiliza las “neuronas”, similar a la que usa el cerebro humano. A esto es a lo que se llama “red neuronal de punta” (SSN) en sus siglas en inglés. En primer lugar, es necesario un porcentaje menor de “neuronas” para transmitir la información, si lo comparamos con los transistores de una arquitectura convencional, esto posibilita que otras neuronas que no están en la red puedan aprender sobre la marcha.

Además, los procesadores actuales, necesitan una propagación inversa, ya que las neuronas sólo se activan cuando ocurre un evento. Esto hace que los resultados no se retroalimenten en el sistema para ir haciendo un ajuste fino, ya que el aprendizaje por parte de los cerebros es generalmente un proceso de retroalimentación y por tanto son más eficientes en este contexto.

Al reducir el poder de una red neuronal en un solo chip semiconductor, los procesos de aprendizaje y reconocimiento de patrones de la tecnología pueden integrarse en una gama más amplia de sistemas, desde robots hasta tabletas y, en el futuro, teléfonos inteligentes. Esto conducirá a un nuevo mundo de aplicaciones que no necesitan alimentación de red o una conexión de red para cumplir con las capacidades computacionales.

¿Qué nos espera en el futuro?

Los expertos creen que los chips neuromórficos podrían integrarse en los teléfonos inteligentes a partir de 2025 e impulsar el crecimiento de IoT. Como los dispositivos podrán percibir el entorno a su alrededor para deducir decisiones, en la próxima década comenzaremos a ver:

Un desarrollo más rápido en el transporte y fabricación. Los vehículos autónomos han estado con problemas en su avance durante muchos años y gran parte de este retraso se debe a su incapacidad para percibir el medio ambiente. Los chips neuromórficos probablemente llevarán esto al siguiente nivel que comienza a impulsar la comercialización de la tecnología.

Los Smartphones van a poder monitorizar continuamente lo que hace el usuario (si la seguridad de los datos lo permite) y potencialmente incluso ayudarle antes de preguntar en función de lo que han percibido. Su dispositivo podría comenzar a comprender sus intenciones de la misma manera que lo hace su cerebro.

El campo de la robótica crecerá a gran velocidad a medida que los robots puedan responder mejor a los comandos en función de su entorno. Si un robot puede navegar de forma independiente y pensar por sí mismo sin consumir grandes cantidades de potencia y energía, el mundo comenzará a cambiar rápidamente.

Esperemos a ver en los próximos años el avance de esta tecnología.

Compartir el artículo:

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *