644 876 069 contactar@sirix.es






Que las tecnologías informáticas están en constante evolución es indiscutible, pero un problema asociado que rara vez se discute es que los términos que utilizamos para describir las soluciones tecnológicas están en gran medida calcificados. Los ordenadores personales (PC) una vez denotaron engorrosos productos de escritorio que casi por completo se ejecutaban en silicio Intel, ejecutaban alguna versión de Microsoft Windows y utilizaban aplicaciones de software empaquetadas.

Comparar esos factores de forma con lo que está disponible hoy en día sería similar a establecer un pterodáctilo y un colibrí uno al lado del otro. Pero considere también que los dispositivos de computación personal modernos abarcan una amplia variedad de factores de forma, incluyendo teléfonos inteligentes, dispositivos portátiles, tabletas, portátiles, 2 en 1, estaciones de trabajo móviles y una gran cantidad de sistemas de escritorio que son masivamente más potentes que los PC de la vieja escuela.

Junto con los usuarios de Windows tienen una amplia gama de sistemas operativos (variantes de Windows, Mac OS, Chrome, Android, iOS y Linux) e interfaces de usuario entre las que elegir. Lo más importante es que estos dispositivos pueden utilizar decenas de miles de aplicaciones, millones de aplicaciones y herramientas e innumerables servicios y soluciones en la nube que proporcionan un valor masivo tanto a las organizaciones como a los consumidores.

Lo mismo puede decirse de casi cualquier plataforma de TI, pero es particularmente llamativo cuando se trata de la supercomputación y la informática de alto rendimiento (HPC), especialmente las soluciones desarrolladas por IBM. ¿Por qué? IBM, líder en la creación de algunas de las supercomputadoras más rápidas y potentes de la industria, está desarrollando nuevas innovaciones que harán que el HPC de clase mundial sea más accesible, eficaz y asequible que nunca. Vamos a considerar eso más de cerca.

Los crecientes beneficios y desafíos del rendimiento de clase mundial

Cuando las supercomputadoras surgieron inicialmente hace más de medio siglo (el UNIVAC de 1960 y el IBM 7030 de 1961 se consideran uno de los primeros), los sistemas utilizaban tecnologías únicas y patentadas y generalmente se desarrollaban para proyectos y propósitos de investigación específicos.

Ese modelo continuó durante un cuarto de siglo hasta la aparición de diseños masivos de redes informáticas paralelas y clusters. En 1993, Top500.org comenzaron a publicar actualizaciones bianuales que enumeraban los 500 superordenadores más rápidos del mundo según su rendimiento de referencia LINpack (punto flotante).

Con el tiempo, los superordenadores, dependiendo de los procesadores patentados y personalizados, fueron sustituidos en gran medida por sistemas que aprovechaban las CPU y otros componentes listos para usar. En 2008, el «Roadrunner» diseñado por IBM (un sistema híbrido basado en LAS CPU IBM PowerXCell 8i y AMD Opteron creadas para el Laboratorio Los Alamos del Departamento de Energía) se convirtió en el primer superordenador en ofrecer más que un petaflop de rendimiento informático. Los sistemas híbridos o heterogéneos se volvieron cada vez más comunes con sistemas, como los sistemas Summit, Sierra y Lassen construidos por IBM, que aprovechan las CPU IBM POWER9 y las GPU NVIDIA.

Estos y otros sistemas de clasificación Top500 han demostrado ser invaluables para proporcionar información sobre numerosas áreas de investigación científica y comercial que de otro modo habrían sido enormemente difíciles o imposibles de perseguir. Sin embargo, junto con las importantes inversiones en diseño e implementación que estos sistemas requieren, los superordenadores de clase mundial también consumen enormes cantidades de energía eléctrica.

El Superordenador Fugaku en el Centro RIKEN para la Ciencia Computacional en Japón que lidera la nueva lista Top500 publicada esta semana requiere más de 28 megavatios de electricidad para funcionar. Los desarrolladores de Supercomputadora Fugaku (Fujitsu y RIKEN) merecen crédito por implementar un diseño altamente eficiente de energía (el sistema también ocupa el puesto No. 9 en la última lista De Green500 de superordenadores líderes de eficiencia energética), pero todavía consume suficiente electricidad para alimentar casi 20.000 hogares.

En un momento en que es cada vez más probable que el cambio climático afecte y tense las fuentes de energía tradicionales, incluidas las instalaciones hidroeléctricas, las compensaciones necesarias para apoyar supercomputadoras cada vez más potentes y hambrientas de energía ofrecen muchos alimentos para el pensamiento.
Cómo IBM está cambiando el HPC comercial

¿Qué está haciendo IBM para abordar estos y otros problemas relacionados? Tras el anuncio de la nueva lista Top500.org, la compañía declaró que cree que «el futuro de la informática de alto rendimiento requerirá sistemas holísticos que lleven toda la potencia de hardware, software, redes y herramientas adicionales como IA y Quantum para resolver algunos de los desafíos más apremiantes del mundo. A medida que las necesidades del cliente siguen evolucionando, la IA, la eficiencia energética y el tiempo total para obtener resultados son elementos que son igual de importantes, si no más, que la velocidad de procesamiento».

El diseño holístico del sistema, la IA, la eficiencia energética y el tiempo de obtención de resultados son cualquier cosa menos nuevos puntos de enfoque para IBM. Los superordenadores Summit y Sierra que ocuparon el No. 1 y 2 en la lista Top500 de noviembre de 2018 a noviembre de 2019 (la única vez que un solo proveedor ha alcanzado el liderazgo simultáneo top500) también fueron listados en el Top 10 de las listas de Green500 durante ese tiempo. Tanto Summit como Sierra también admiten sofisticados análisis de datos basados en IA habilitados por GPU NVIDIA Volta GV100.
Trabajar de forma más inteligente, no más difícil

IBM también está trabajando para llevar sus innovaciones de supercomputación a mercados más amplios y clientes comerciales. En enero, la compañía presentó el nuevo Power System IC922, un servidor de inferencia diseñado específicamente para poner los modelos de IA a trabajar y ayudar a desbloquear la información empresarial. En la nomenclatura de IA, la «inferencia» es el paso más allá del aprendizaje automático y el entrenamiento de redes neuronales, donde un sistema optimizado puede aplicar la IA a tareas y problemas del mundo real.

Power IC922 de IBM puede soportar hasta seis aceleradores de GPU NVIDIA T4 Tensor Core, y el sistema también es modular y escalable. Estas características permiten a los clientes de IBM aprovechar de forma flexible los niveles de aceleración de inferencias y rendimiento del sistema que mejor se adapten a sus necesidades. Dado su tamaño compacto, Power IC922 de IBM puede soportar la inferencia de IA dondequiera que se encuentre la información, en una instalación local central o en un centro de datos distribuido.

IBM también está desarrollando activamente nuevas tecnologías complementarias que tendrán un impacto importante en la HPC comercial y la supercomputación. Por ejemplo, los ingenieros de la organización de integridad de señales de bus de alta velocidad (HSB-SI) de la empresa discutieron recientemente los resultados de la implementación del software de optimización ibm Bayesian, una herramienta de aprendizaje automático desarrollada por IBM Research, para reducir el número de simulaciones necesarias para alcanzar la configuración óptima para la comunicación chip a chip.

Los procesos tradicionales de «fuerza bruta» utilizados para analizar los canales de diseño chip a chip son intensivos en ingeniería y simulación y pueden tardar hasta varios días en llegar a una combinación óptima. Con esta tecnología, los ingenieros de HSB-SI fueron capaces de reducir drásticamente la cantidad de tiempo necesario, lograr los mismos resultados y utilizar menos recursos para llegar allí.

Específicamente, un sistema de 10 núcleos con el software de optimización ibm Bayesian redujo el trabajo de casi ocho días de tiempo de computación a solo 80 minutos. El equipo también experimentó con un trabajo que requirió que los resultados se entregaran en 100 minutos. Un sistema bayesiano habilitado para la optimización con nueve núcleos fue capaz de completar esa tarea, mientras que la utilización de técnicas de fuerza bruta requería un sistema con 1.126 núcleos.

En otras palabras, IBM Bayesian Optimization parece calificar como un caso clásico de «trabajar de forma más inteligente, no más difícil». Fundamentalmente, sin embargo, la simulación más rápida es la que no tienes que ejecutar.

Análisis final

Al igual que Roadrunner y muchos otros superordenadores de IBM, los sistemas Summit y Sierra tuvieron una gran carrera en el pico de Top500.org clasificación. Pero como discutí en una revisión anterior de Pund-IT, el liderazgo supercomputador es una ocupación transitoria, en el mejor de los casos. La innovación informática es una constante y nunca reside en una sola organización o país durante mucho tiempo.

Pero como he señalado antes, lo que queremos decir cuando hablamos de supercomputación y supercomputadoras también ha cambiado sustancialmente en las últimas seis décadas. Para su crédito, Top500.org ha incorporado otras mediciones de los sistemas que analiza, incluyendo las listas Green500 y HPCG500. Pero eso ofrece más evidencia de que los puntos de referencia de LINpack de rendimiento de punto flotante son simplemente una de las muchas mediciones que definen la supercomputación contemporánea y el liderazgo de HPC.

Un último problema que vale la pena considerar es si y qué tan bien los proveedores están entregando las innovaciones de HPC que desarrollan a los clientes que no sean laboratorios de investigación del gobierno y empresas de bolsillo profundo. Mediante esa medición, es difícil encontrar un mejor ejemplo de éxito del proveedor que IBM. La compañía fue la primera en desarrollar soluciones híbridas de supercomputación que condujeron directamente a los sistemas actuales de la DOE basados en IBM POWER9/NVIDIA y habilitados para IA, Sierra y Lassen.

Con la introducción de sus nuevos servidores híbridos de inferencia Power IC922, IBM ofrece claramente una gran cantidad de lecciones aprendidas y sabiduría obtenida en la supercomputación a mercados comerciales más amplios de HPC. Del mismo modo, sospecho que escucharemos más sobre la nueva tecnología de optimización bayesiana de IBM en los próximos meses y años. Con estos y otros esfuerzos y soluciones, IBM está demostrando que «vamos a poner a trabajar inteligentemente» es mucho más que una simple homilía de marketing.

Charles King es analista principal en PUND-IT y colaborador habitual de eWEEK. © 2019 Pund-IT, Inc. Todos los derechos reservados.