Actualizado el 19/11/2024

icon Facebook icon Twiiter icon RSS icon EMAIL
  1. Portada
  2. >
  3. Opiniones
  4. >
  5. El nuevo paradigma MDC (Memory driven computing)

El nuevo paradigma MDC (Memory driven computing)

Escrito por Josep Mompin, Luis del Rio el 21/02/2017 a las 20:11:30
3573

(Expertos en Tecnología)

Han pasado muchos lustros desde que en España se denominaba al ordenador o computador como “Cerebro Electrónico”. Era una época en la que ampliar la memoria de un ordenador de 32 Kbyte a 64 Kbyte costaba 20 millones de pesetas, (120.000 euros). Mucho ha llovido desde entonces, pero permítanos que retrocedamos a los albores de esta apasionante industria IT.

 

Simplificando

 

Los conceptos básicos y principios abstractos de la computación fueron descritos y establecidos por el Dr. Alan Turing en el año 1936 (año infame para España), pero aún esta joven ciencia exigía más desarrollos, como el concepto de Programa Almacenado.

 

Posteriormente surgió la arquitectura J. Von Neumann o “Princeton”, que fue descrita en 1945. Este diseño consistía en una CPU (unidad central de proceso), memoria y dispositivos Entrada-Salida con programa almacenado.   No obstante, apareció como hándicap el conocido hasta nuestros días como “cuello de botella Von Neumann” que ralentiza el rendimiento del ordenador. Posteriormente, como un refinamiento de arquitectura de ordenador surgió la “Arquitectura Harvard”, que consistía en un conjunto de direcciones (buses separados) para datos e instrucciones, ambos compartiendo espacio en memoria. Esta arquitectura mejoró el rendimiento de la “Princeton”, pero no resolvió que la velocidad de comunicación y trabajo de memoria fuera mucho más baja que la velocidad de trabajo de la CPU. Este problema se intentó mitigar por medio de algunos diseños que, a lo largo de estos últimos 60 años, han ido apareciendo, como por ejemplo las memorias caches, lógica de predicción de saltos, y computación paralela.   Además, la nueva generación de CPUs con cada día más y más núcleos (cores) con multihilos, agrava el problema.    También hay que añadir que la complejidad de los modernos sistemas, el mencionado “cuello de botella”, crea grandes problemas de fiabilidad, que puede originar en el sistema un “desmoronamiento”, o a veces para usuarios Windows, el “pantallazo azul”.

 

Por todo lo expuesto, es necesario un nuevo paradigma IT.  Este paradigma se basa, según algunos Labs Tech IT del mundo, en el desarrollo de “memory driven  computing” ( sistemas basados en memoria).  Es decir, son las nuevas tech de “memoria no volátil”, con eliminación de jerarquías de memoria existentes actualmente y con acceso a alta velocidad a nivel de chip (conexión fotónica). En otras palabras, “computadora basada en memoria no volátil”, accedida a alta velocidad por un gran número de cores especializados, y en la que los datos no viajen de CPU (servidor) a CPU (servidor), sino que los datos permanecen mientras otras CPUs manejan total o parcialmente los datos.

 

Conclusión:

 

Actualmente hay mucha actividad investigadora en diferentes laboratorios del mundo sobre nuevas y próximas generaciones de memorias, con velocidad de DRAM, no volátil, densidad, posibilidad de mayor integración y  posibilidad de realización, de mayor a menor en la siguiente lista: 3D Xpoint, Carbon nanotube memory, Memristor, MRAM, Re RAM, PCM, STTRAM.

Las inminentes novedades en informática vendrán precisamente en materia de memorias.

Lluis del Rio y Josep Mompín