Inteligencia artificial

Por qué necesitamos diseñar inteligencia artificial para que funcione como el cerebro

A medida que avanza la inteligencia artificial (IA), sus logros conllevan desafíos que consumen mucha energía.

Un estudio predice que si los datos continúan creciendo, el uso de energía acumulativo de las operaciones binarias podría exceder los 10^27 julios para 2040, más energía de la que el mundo puede generar.

Entonces, exploremos el impacto ambiental de la IA, las limitaciones de los modelos informáticos tradicionales y cómo la computación neuromórfica (NC) puede inspirarse en el cerebro humano energéticamente eficiente para permitir un progreso sostenible en la IA.

Inteligencia artificial: el dilema

La inteligencia artificial (IA) ha logrado hitos impresionantes en los últimos años, como el desarrollo de modelos de lenguaje como ChatGPT y avances en visión por computadora que han mejorado las tecnologías autónomas y las imágenes médicas avanzadas.

Además, la asombrosa habilidad de la IA en el aprendizaje por refuerzo, como se ve en sus victorias sobre campeones humanos en juegos como el ajedrez y el Go, subraya sus extraordinarias habilidades.

Si bien estos avances están permitiendo que la IA transforme industrias, fomente la innovación empresarial, descubra avances científicos e impresione a la sociedad, no están exentos de consecuencias.

Además de las asombrosas predicciones para 2040, incluso hoy en día, almacenar grandes cantidades de datos y utilizar estos conjuntos de datos para entrenar modelos de inteligencia artificial requiere mucha energía y recursos informáticos, según muestran las investigaciones:

Por lo tanto, a medida que la inteligencia artificial continúa desarrollándose, resulta fundamental lograr un equilibrio entre el progreso y las necesidades energéticas, teniendo en cuenta su impacto ambiental.

Publicaciones relacionadas

Arquitectura de Von Neumann: el cuello de botella

Los modelos de IA operan dentro del marco de una arquitectura von Neumann, un diseño de computadora que esencialmente separa el procesamiento y la memoria y requiere una comunicación constante entre ellos.

Esta arquitectura enfrenta obstáculos formidables a medida que los modelos de IA se vuelven más complejos y los conjuntos de datos se expanden.

En primer lugar, las unidades de procesamiento y almacenamiento comparten el bus de comunicación, lo que ralentiza los cálculos de la IA y dificulta la formación.

En segundo lugar, las unidades de procesamiento de esta arquitectura carecen de capacidades de procesamiento paralelo, lo que afecta la capacitación.

Si bien las GPU alivian este problema al permitir el procesamiento paralelo, introducen una sobrecarga en la transferencia de datos.

El movimiento frecuente de datos enfrenta una sobrecarga adicional ya que la jerarquía de la memoria afecta el rendimiento.

Los grandes conjuntos de datos dan como resultado tiempos prolongados de acceso a la memoria y un ancho de banda de memoria limitado, lo que genera cuellos de botella en el rendimiento.

Los modelos complejos de IA ejercen presión sobre los sistemas de von Neumann, limitando la memoria y la capacidad de procesamiento. Estas limitaciones provocan altos requisitos energéticos y emisiones de carbono de los sistemas de IA.

Abordar estos desafíos es fundamental para optimizar el rendimiento de la IA y minimizar el impacto ambiental.

El cerebro biológico: inspiración

En términos de capacidades cognitivas, el cerebro humano es más poderoso que cualquier máquina con inteligencia artificial.

A pesar de su enorme potencia, el cerebro es muy ligero en comparación con las máquinas hambrientas de energía que utilizamos hoy en día, que funcionan con sólo 10 W.

Incluso con este modesto presupuesto de energía, se estima que el cerebro puede alcanzar la asombrosa cifra de 1 exaflops, equivalente a 1.000 petaflops, y la supercomputadora más rápida del mundo (con 30 megavatios de potencia) es difícil de igualar con 200 petaflops.

El secreto del cerebro reside en sus neuronas, que integran procesamiento y memoria, a diferencia de la arquitectura de von Neumann.

El cerebro procesa información de forma masivamente paralela, con miles de millones de neuronas y billones de sinapsis trabajando simultáneamente. A pesar de la enorme complejidad del cerebro, su uso de energía sigue siendo compacto y económico.

¿Qué es la Computación Neuromórfica?

La computación neuromórfica (NC) es una rama de la tecnología informática inspirada en la estructura y función de las redes neuronales en el cerebro humano.

Busca diseñar y desarrollar arquitecturas y sistemas informáticos que imiten las capacidades de procesamiento paralelo y distribuido del cerebro, permitiendo un procesamiento eficiente y energéticamente eficiente de tareas complejas.

Este enfoque tiene como objetivo superar las limitaciones impuestas por las arquitecturas de von Neumann a las tareas de IA, en particular mediante la ubicación conjunta de la memoria y el procesamiento en una única ubicación.

Para comprender la NC, es fundamental comprender cómo funciona el cerebro. Las neuronas son los componentes básicos del cerebro que se comunican mediante señales eléctricas para procesar la información.

Cuando se recibe una señal de neuronas interconectadas, la procesan y envían un pulso.

Estos impulsos viajan a lo largo de caminos formados por neuronas y las sinapsis (los espacios entre neuronas) facilitan la transmisión.

En el marco de NC, se utilizan memristores analógicos para replicar la función de las sinapsis, permitiendo la memoria modulando la resistencia.

La comunicación rápida entre neuronas generalmente se logra mediante el uso de redes neuronales de picos (SNN).

Estos SNN conectan neuronas activas mediante dispositivos sinápticos artificiales, como memristores, que emplean circuitos analógicos para imitar señales eléctricas similares al cerebro.

Estos circuitos analógicos son significativamente más eficientes energéticamente que las arquitecturas convencionales de von Neumann.

tecnología neuromórfica

El auge de la inteligencia artificial está impulsando la necesidad de la computación neuromórfica.

Se espera que el mercado mundial de la computación neuromórfica crezca de 31,2 millones de dólares en 2023 a alrededor de 8.275,9 millones de dólares en 2030, con una tasa de crecimiento anual compuesta del 85,73%. En respuesta, las empresas están avanzando en tecnologías neuromórficas como:

El verdadero norte de IBM: Introducido en 2014, es un circuito integrado CMOS neuromórfico con 4096 núcleos, más de 1 millón de neuronas y 268 millones de sinapsis. TrueNorth supera el cuello de botella de von Neumann y consume sólo 70 milivatios.

Loihi de Intel: Lanzado en 2017, Loihi es 1000 veces más eficiente energéticamente que el típico entrenamiento de redes neuronales. Tiene 131.072 neuronas simuladas y es entre 30 y 1000 veces más eficiente energéticamente que la CPU/GPU.

Akida NSoC de BrainChip: Utilizando una arquitectura de red neuronal con picos, integra 1,2 millones de neuronas y 10 mil millones de sinapsis. Akida permite aplicaciones de IA de bajo consumo y en tiempo real, como la detección de objetos en vídeo y el reconocimiento de voz.

Estas innovaciones marcan el rápido desarrollo de la computación neuromórfica para satisfacer las necesidades de la inteligencia artificial.

Desafíos de la computación neuromórfica

Para aprovechar el potencial del CNC en el campo de la inteligencia artificial es necesario abordar desafíos específicos.

En primer lugar, es fundamental desarrollar algoritmos eficientes que sean compatibles con el hardware neuromórfico. Esto requiere un conocimiento profundo del funcionamiento del hardware y ajustes personalizados.

En segundo lugar, la necesidad de manejar conjuntos de datos más grandes y complejos es crítica. Los experimentos actuales de NC involucran conjuntos de datos relativamente pequeños y su desempeño debe explorarse con preguntas más sustantivas y complejas.

A medida que los conjuntos de datos crecen en tamaño y complejidad, también lo hacen las demandas computacionales de NC. El desafío es diseñar un sistema CNC que satisfaga estas necesidades y al mismo tiempo proporcione una solución precisa y eficiente.

A pesar de los resultados alentadores de las pruebas a pequeña escala, el rendimiento de NC en conjuntos de datos más grandes y complejos aún no se ha probado.

Es esencial realizar más investigación y desarrollo para optimizar la tecnología para aplicaciones prácticas.

la línea de fondo

La computación neuromórfica (CN) se inspira en las redes neuronales del cerebro para revolucionar la inteligencia artificial a través de la eficiencia energética.

A medida que los avances en inteligencia artificial crean preocupaciones ambientales, los sistemas CNC ofrecen una alternativa a través del procesamiento paralelo que imita el cerebro.

A diferencia de las arquitecturas de von Neumann, que impiden la eficiencia, NC reúne memoria y procesamiento, superando los cuellos de botella.

Innovaciones como TrueNorth de IBM, Loihi de Intel y Akida NSoC de BrainChip demuestran el potencial de la tecnología neuromórfica.

Aún quedan desafíos, incluida la adaptación de algoritmos y la escalabilidad a conjuntos de datos más grandes. A medida que NC se desarrolle, se espera que proporcione soluciones de IA energéticamente eficientes con potencial de crecimiento sostenible.

LEER
Informática e inteligencia artificial: cómo la inteligencia en el dispositivo está cambiando el juego

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba