El 'cerebro' que nos enseñó a 'pensar' en paralelo

1973

El 16 de mayo de 1973, la Universidad de Carnegie Mellon presentó el primer prototipo de 'Diferenciador de Grasa', un computador paralelo primitivo que allanó el camino para las arquitecturas de computación multinúcleo.

En los albores de la computación paralela, cuando la idea de que múltiples procesadores trabajaran juntos para resolver un problema era casi ciencia ficción, la Universidad de Carnegie Mellon dio un paso audaz. El 16 de mayo de 1973, presentaron el primer prototipo funcional del 'Diferenciador de Grasa' (Grease Differenciator), un sistema diseñado para realizar cálculos de forma paralela.

El nombre, hoy nos suena peculiar, pero el concepto era revolucionario para la época. Este 'cerebro' primitivo utilizaba múltiples unidades de procesamiento para realizar operaciones matemáticas, específicamente derivadas, de manera simultánea. El objetivo era demostrar que la computación paralela no solo era teóricamente posible, sino que podía ser implementada de forma práctica, sentando las bases para arquitecturas mucho más complejas.

Este proyecto fue un precursor fundamental de las arquitecturas multinúcleo que hoy damos por sentadas en nuestros smartphones, portátiles y servidores. La idea de tener varios 'cerebros' trabajando en concierto para acelerar las tareas informáticas, desde la edición de vídeo hasta el entrenamiento de modelos de IA, tiene sus raíces conceptuales en estas exploraciones pioneras.

El 'Diferenciador de Grasa', aunque humilde en su ejecución comparado con la tecnología actual, representó un cambio de paradigma: pasar de la computación secuencial a la paralela. Fue un hito que demostró que la velocidad y la eficiencia en la computación no solo dependían de hacer las cosas más rápidas, sino de hacer más cosas a la vez.

Puente Pop

The Matrix (1999)

La película visualiza un mundo donde las máquinas procesan información a una escala masiva y paralela para mantener la simulación. Si bien es ciencia ficción extrema, el concepto de computación masiva y entrelazada resuena con los avances en paralelismo.