Las supercomputadoras a exaescala ( exascale computing en inglés) son supercomputadoras de tipo informático que operan según una arquitectura masivamente paralela y cuya potencia de cálculo supera los 10 18 flops . La máquina divide las tareas a realizar en millones de subtareas, cada una de las cuales es realizada simultáneamente por un procesador .
No hay una máquina Exascale en 2020. Para alcanzar este nivel, los sistemas de TI necesitarán una revisión completa sobre cómo abordar los desafíos en diferentes áreas.
Está en marcha una carrera por el poder con programas en Estados Unidos, Europa, China y Japón. Cray anuncia las primeras entregas con esta capacidad informática para 2021 .
Las misiones de la supercomputadora exaflopic estarán orientadas a la investigación y desarrollo de varios temas de nuestra sociedad.
Las supercomputadoras exascale ( computación exascale ) son supercomputadoras ( High-Performance Computing o HPC ) con una potencia de cálculo del orden de 10 18 flops (un exaflop = mil millones de billones de operaciones en punto flotante por segundo). Estas máquinas son una colección de microprocesadores fuertemente conectados, cada uno de los cuales se caracteriza por una alta frecuencia de reloj y consta de varios núcleos de computación. Para diseñar supercomputadoras de alto rendimiento, los fabricantes juegan simultáneamente con el número de microprocesadores, el número de núcleos, la frecuencia de reloj y la asociación de procesadores gráficos . La idea básica detrás de HPC es la computación paralela que implica distribuir múltiples segmentos de una ecuación compleja en múltiples procesadores para calcularlos simultáneamente. Una supercomputadora está formada por miles de nodos, siendo un nodo el bloque de construcción básico formado por un conjunto de varios microprocesadores. Una alta capacidad de computación requiere un espacio de almacenamiento que alcance los petabytes (diez petabytes de Summit of IBM por ejemplo). Además de la máxima velocidad, también necesitan un entorno de software que facilite su uso eficiente y productivo.
Los costos de investigación y desarrollo para crear un sistema informático exaflópico han sido estimados por muchos expertos en más de mil millones de dólares estadounidenses, con un costo operativo anual de varias decenas de millones de dólares.
Las dos aplicaciones principales de las supercomputadoras son la Computación de alto rendimiento ( CHP ) y el análisis de datos complejos. Inicialmente, el uso de supercomputadoras se limitó a ciertas aplicaciones especiales como simulaciones simples, ingeniería , petróleo y gas debido al enorme costo de los sistemas HPC. Luego se expandió a varios campos como minería de datos, investigación climática, salud, automoción , física , astrofísica , mecánica de fluidos computacional y nanotecnología molecular. Estos medios futuros permitirán realizar descubrimientos en un amplio espectro de campos científicos para ayudarnos a mejorar nuestra comprensión del mundo en el que vivimos.
Los avances en la comprensión de ciertos problemas científicos a menudo se asocian con la evolución de la informática . Capacidades superiores a los sistemas de petaescala ayudarán a los científicos a diseñar modelos y ejecutar simulaciones de problemas complejos. La simulación numérica es un proceso esencial de investigación científica que complementa la teoría y la experimentación. También participa en los ciclos de diseño y producción en muchos sectores industriales. Estas máquinas permiten el diseño y la optimización multidisciplinarios, reduciendo el tiempo y los costes de creación de prototipos .
Líderes como Estados Unidos, China, Europa y Japón compiten entre sí por las máquinas más potentes. Los temas se relacionan con la política de soberanía y seguridad individual y colectiva. Las políticas de energía, prevención de riesgos naturales y defensa se basan en los aportes de la simulación y la computación de alto rendimiento.
El CMOS ( Complementary Metal Oxide Semiconductor ) permitió que el rendimiento del circuito microelectrónico creciera exponencialmente a un costo constante. El fin del espectacular crecimiento exponencial en el rendimiento de un solo procesador marca el fin del dominio del procesador único en la informática. La computación secuencial está dando paso al paralelismo.
Aunque la informática de alto rendimiento se ha beneficiado de los mismos avances en semiconductores que la informática básica, el rendimiento duradero de los sistemas HPC ha mejorado más rápidamente debido al mayor tamaño del sistema y al paralelismo. Se espera que la cantidad de núcleos en el sistema alcance varios millones de núcleos de cómputo.
En la década de 1980, la supercomputación vectorial dominaba la computación de alto rendimiento, como lo demuestran los sistemas con el mismo nombre diseñados por Seymour Cray . La década de 1990 vio el surgimiento del tratamiento masivamente paralelo (MPP: Massively Parallel Processing ) y multiprocesador con memoria compartida (SMP: Shared Memory Multiprocessors ) fabricado por Thinking Machines Corporation , Silicon Graphics y otros. A su vez, los grupos de productos ( Intel / AMD x86) y los procesadores diseñados específicamente (como BlueGene de IBM ) dominaron la década de 2000 . Durante la próxima década, estos grupos se complementaron con aceleradores de cómputo en la forma de Intel coprocesadores y Nvidia procesamiento de gráficos unidades ( GPU ) ; también incluyen interconexiones de baja latencia y alta velocidad (como Infiniband ). Las redes de área de almacenamiento ( SAN ) se utilizan para el almacenamiento de datos persistentes, y los discos locales en cada nodo se utilizan solo para archivos temporales. Este ecosistema de hardware está optimizado principalmente para el rendimiento, en lugar de por un costo mínimo. En la parte superior del hardware del clúster , Linux proporciona servicios de sistema , complementados por sistemas de archivos paralelos (como Lustre ) y programadores por lotes (como PBS y SLURM ) para administrar trabajos paralelos. MPI y OpenMP se utilizan para el paralelismo entre nodos y entrenudos, bibliotecas y herramientas optimizadas (como CUDA y OpenCL ) para su uso como coprocesador. Las bibliotecas digitales (como LAPACK y PETSc) y las bibliotecas específicas de dominio completan la pila de software . Las aplicaciones se desarrollan generalmente en FORTRAN , C o C ++ .
Hay dos tipos de diseños arquitectónicos:
La carrera global para construir supercomputadoras cada vez más grandes y poderosas ha llevado a lo largo de los años a la creación de una plétora de arquitecturas diferentes y ha dado lugar a varias "revoluciones". Esta carrera se ha registrado a lo largo de los años en la lista de supercomputadoras TOP500 , donde las supercomputadoras más potentes construidas hasta ahora se clasifican según el rendimiento máximo de punto flotante (sitio web TOP500 ). En general, la velocidad de las supercomputadoras se mide y se compara en FLOPS , no en MIPS (millones de instrucciones por segundo), como las computadoras de propósito general. Para expresar el rendimiento general de un sistema informático, utilizamos el punto de referencia Linpack, que permite estimar la velocidad a la que la computadora resuelve problemas numéricos . Esta referencia se usa ampliamente en la industria. La medición FLOPS se cita sobre la base del rendimiento teórico de punto flotante de un procesador (" Rpeak " en las listas TOP500 ), o por la derivada del punto de referencia Linpack ("Rmax" en la lista TOP500).
El rendimiento de Linpack da una indicación de algunos problemas del mundo real, pero no necesariamente coinciden con las de procesamiento de los requisitos de muchas otras cargas de trabajo del superordenador, lo que puede requerir, por ejemplo, la consideración de ancho de banda , o incluso S / sistemas .
Para alcanzar el nivel Exascale , los sistemas de TI necesitarán una revisión completa de cómo enfrentar los desafíos en las áreas de costo, energía, eficiencia informática, resiliencia y tolerancia a fallas , el movimiento de datos a través de la red y, finalmente, modelos de programación.
Desde la década de 1990, el rápido crecimiento en el rendimiento de los microprocesadores ha sido posible gracias a tres impulsores tecnológicos clave: escalar la velocidad de los transistores, técnicas de microarquitectura y memorias caché . Alrededor de 2004, los chips dejaron de acelerarse cuando las limitaciones térmicas terminaron con el escalado de frecuencia (también conocido como escalado de Dennard). Los avances en miniaturización se han puesto al servicio de un paralelismo masivo. Para aumentar la potencia de las supercomputadoras , la tendencia apunta a la multiplicación de núcleos informáticos dentro de los procesadores .
Para la arquitectura de un nodo informático, algunos prefieren el uso de procesadores gráficos ( GPU ), que normalmente se utilizan para la representación realista de videojuegos . La potencia de estos procesadores se basa en el uso de varios cientos de núcleos de cálculo organizados según una arquitectura simplificada, SIMD (para Single Instruction Multiple Data ), donde todas las unidades ejecutan la misma tarea en paralelo, pero sobre diferentes datos. D'autres misent plutôt sur le parallélisme d'un grand nombre de cœurs généralistes — une centaine par processeur — dont les performances seront boostées par l'ajout d'unités dites « vectorielles » qui opèrent sur des registres de 512 bits au lieu de 64 habitualmente. Por tanto, se realizan ocho veces más cálculos por ciclo. Esta nueva arquitectura propuesta por Intel se denominó “MIC” ( Many Integrated Cores ). Por tanto, las GPU o MIC desempeñan el papel de aceleradores de la computación y mejoran la eficiencia energética .
La Iniciativa Nacional de Computación Estratégica (NSCI) propone ejes estratégicos de investigación, el primero de los cuales es acelerar la entrega de un sistema informático a exaescala . Esto se puede lograr sobre la base de la evolución continua de la tecnología de transistores CMOS y tecnologías más nuevas, como la fotónica al silicio y la integración de memoria 3D . La aparición de un dispositivo de alto rendimiento y bajo voltaje podría aliviar considerablemente las limitaciones de producción de energía y calor que limitan la informática.
En el régimen de cálculo a exaescala , se espera que el costo de energía de mover datos entre la memoria y la tubería FPU exceda el costo de una operación de punto flotante . Esto requiere interconexiones energéticamente eficientes, de baja latencia y de gran ancho de banda para permitir el intercambio de datos entre procesadores. Varias funciones como memorias e interconexiones deberán integrarse en un solo componente electrónico . El objetivo es reducir la distancia física entre los componentes y garantizar que los elementos de cálculo exploten por completo la localidad física con el almacenamiento .
MemoriaMinimizar el movimiento de datos y reducir el consumo de energía también depende de las nuevas tecnologías de memoria, incluida la memoria del procesador, la memoria apilada y los enfoques de memoria no volátil .
La SRAM se puede integrar con un CMOS lógico de alto rendimiento, lo que permite una integración más rentable de grandes cantidades de memoria lógica en comparación con DRAM y flash en el mismo chip .
InterconexiónLa red de comunicación de una supercomputadora interconecta miles de nodos. Para las máquinas exaflopicas, esta vez será necesario conectarlas diez veces más nodos que las máquinas petaflopic. La forma en que estos elementos de TI están conectados entre sí ( topología de red ) tiene un fuerte impacto en muchas características de rendimiento. Hay muchas topologías posibles para construir sistemas paralelos, como el toro, el árbol clásico o la libélula . Para que sea eficaz en Exascale , las comunicaciones deben realizarse de forma completamente autónoma sin involucrar los núcleos de los procesadores dedicados a los cálculos. El desafío es desarrollar nuevas arquitecturas de redes de interconexión íntimamente integradas con los nodos informáticos.
EnfriamientoLa energía eléctrica consumida por un ordenador se transforma en gran medida en calor ( efecto Joule ), lo que requiere la instalación de sistemas de refrigeración que también consumen mucha energía. La infraestructura de enfriamiento generalmente está diseñada para operar con las potencias máximas de los sistemas HPC implementados. Los diseñadores deben innovar para diseñar sistemas más eficientes.
Idealmente, los sistemas serían homeostáticos, se adaptarían a fallas de hardware y software sin intervención humana y continuarían operando hasta que el número de fallas sea demasiado grande para cumplir con los objetivos de desempeño, ya que los componentes fallados se reemplazan periódicamente. los usuarios notan.
Con el aumento de la complejidad y el número de nodos en los sistemas HPC a lo largo del tiempo, la probabilidad de que las aplicaciones experimenten fallas en el tiempo de ejecución se ha incrementado dramáticamente. Las máquinas exaflopic, que contendrán varios millones de núcleos informáticos, estarán sujetas a varios fallos por hora. Será fundamental la resistencia sistémica a las fallas habituales de los componentes.
Los errores de hardware, también conocidos como errores permanentes, dependen de una estrategia de mitigación diferente a la de los errores de software . Estos errores se pueden corregir parcialmente incorporando componentes redundantes o de repuesto. Por ejemplo, la construcción de núcleos adicionales que permanecen inactivos, pero que se pueden encargar para reemplazar cualquier procesador defectuoso.
La tasa de error se refiere a errores transitorios que afectan el tiempo promedio entre las interrupciones de la aplicación. El tiempo medio de identificación (MTTI) es cualquier falla que requiera una acción correctiva de errores por parte de la aplicación de oposición que están ocultos de la aplicación por un mecanismo resistente en hardware o software.
Todos los protocolos basados en puntos de control se basan en registrar periódicamente el estado de funcionamiento del sistema y reiniciar desde un estado anterior sin errores después de que se produzca una falla.
Daniel Dauwe, Sudeep Pasricha, Anthony A. Maciejewski y Howard Jay Siegel ofrecen una comparación de cuatro protocolos de resistencia de HPC que utilizan puntos de control:
Punto de control y reinicioEl punto de control es la técnica de resiliencia más utilizada por los HPC. Consiste en anotar el estado de todos los programas que se ejecutan en un dispositivo de almacenamiento (como el sistema de archivos paralelo). Esto se hace apagando el sistema a intervalos regulares.
Puntos de control multinivelDebido a que diferentes tipos de fallas pueden afectar un sistema informático de diferentes maneras, no todas las fallas requieren reiniciar el sistema desde un punto de control. El punto de control multinivel aprovecha esto proporcionando múltiples niveles de punto de control. Cada nivel ofrece una compensación entre el tiempo que lleva el punto de control, el reinicio y el nivel de gravedad de la falla en el que el sistema puede reanudar la computación.
Registro de mensajesEsta técnica consiste en registrar los mensajes enviados entre procesos para generar capturas de la ejecución de los programas que se distribuirán por todas las memorias del sistema. En el caso de una falla, esto permitirá que el nodo fallido utilice los mensajes almacenados en la memoria de otro nodo para la recuperación. Este método tiene la ventaja de reducir el tiempo de recálculo y ahorrar energía porque solo el nodo fallado está activo, el resto del sistema puede permanecer inactivo hasta la recuperación.
RedundanciaLa técnica de la redundancia se utiliza para mejorar la confiabilidad de un sistema. Este método se puede implementar a nivel de hardware o software y permite realizar múltiples copias del mismo código. La desventaja sigue siendo el uso de recursos adicionales.
El paralelismo ha provocado una revolución en el rendimiento de las computadoras. Esto se introdujo en la década de 1990 y todavía está en desarrollo para abordar los sistemas informáticos específicos a exaescala .
Con varios millones de núcleos de computación, el desafío será paralelizar los cálculos al extremo, es decir dividirlos en un número muy grande de subcálculos ejecutados por los núcleos de los procesadores. Será necesario distribuir las tareas por igual entre los núcleos para permitir que las máquinas sean eficientes. Esto plantea preguntas en términos de programación que requieren un nuevo enfoque de la programación paralela de baja potencia para lograr un rendimiento masivo. Se necesitan modelos de programación más expresivos que puedan manejar este proceso y simplificar los esfuerzos del desarrollador al mismo tiempo que apoyan el paralelismo dinámico y detallado. La programación de estos futuros sistemas masivamente paralelos y heterogéneos no será trivial, y los modelos de programación y los sistemas de ejecución deberán adaptarse y rediseñarse en consecuencia.
Los investigadores Usman Ashraf, Fathy Alburaei Eassa, Aiiad Ahmad Albeshri y Abdullah Algarni presentan un híbrido MPI + OMP + CUDA (MOC), un nuevo modelo de programación paralela masiva para sistemas de clústeres heterogéneos a gran escala. Anuncian "una aceleración asintótica de hasta un 30% -40% en comparación con las mejores implementaciones en multiprocesadores heterogéneos y GPU aceleradas de Nvidia " .
El proyecto ECOSCALE tiene como objetivo proporcionar un enfoque holístico para una nueva arquitectura jerárquica heterogénea energéticamente eficiente, un entorno de programación híbrido MPI + OpenCL y un sistema de ejecución para máquinas de exaescala .
Desde noviembre de 2017, las 500 supercomputadoras más rápidas del mundo funcionan con sistemas operativos basados en Linux .
Las máquinas exaflopic, que contendrán varios millones de núcleos informáticos, estarán sujetas a varios fallos por hora. Por tanto, el software debe ser capaz de distribuir lo mejor posible las tareas a realizar entre todos los núcleos informáticos y reducir al máximo el movimiento de datos. También deberán guardar los datos durante la ejecución de los cálculos para que no se pierdan si falla algún componente de la máquina.
Las aplicaciones que tienen muchos intercambios o sincronizaciones entre sus subtareas se denominan de grano fino , es decir, de grano fino , las que por el contrario tienen pocos intercambios y sincronizaciones se denominan de grano grueso , es decir, de grano grueso. La computación a exaescala exigirá una gran demanda de algoritmos en al menos dos áreas: la necesidad de aumentar la cantidad de datos locales para realizar cálculos de manera eficiente y la necesidad de lograr niveles mucho más altos de paralelismo de grano fino, ya que estos sistemas están respaldando un número cada vez mayor. de hilos de instrucción . Como resultado, los algoritmos paralelos deben adaptarse a este entorno y deben desarrollarse nuevos algoritmos e implementaciones para explotar las capacidades computacionales del nuevo hardware.
Los nuevos diseños de software y del sistema operativo tendrán que soportar la gestión de los recursos heterogéneos y no Cache jerarquías de memoria compatibles , proporcionar aplicaciones y ejecución con un mayor control sobre las políticas de planificación de tareas, y la gestión de las políticas de planificación de tareas. Globales espacios de nombres . También deben demostrar mecanismos de control, predicción y medición de gestión de energía más precisos, lo que permite a los programadores asignar cálculos a aceleradores de funciones específicas y gestionar envolventes térmicas y perfiles de energía de las aplicaciones.
Debería surgir una colaboración entre especialistas en matemáticas aplicadas que desarrollan herramientas informáticas digitales y científicos informáticos especializados en informática de alto rendimiento que diseñan software para hacer posible el mejor uso de las características materiales de estas nuevas arquitecturas masivamente paralelas.
Serán útiles nuevos lenguajes de programación y modelos más allá de C y FORTRAN . La programación de funciones que se encuentra en Chapel y X10 ya ha tenido un efecto indirecto en los modelos de programación existentes (como OpenMP ). Este último aprovechó las extensiones para los siguientes ejemplos: paralelismo de tareas, aceleradores y afinidad de subprocesos . El lenguaje específico del campo ( DSL ) ( lenguaje específico de dominio ) se especializa en un dominio de aplicación particular, lo que representa una forma de expandir la base existente de la lengua. Los DSL integrados son una forma pragmática de explotar las sofisticadas capacidades de análisis y transformación de los compiladores para lenguajes estándar.
La distribución de la carga es un desafío a considerar. La unidad de equilibrio de carga distribuye la carga de procesamiento entre los sistemas informáticos disponibles para que el trabajo de procesamiento se complete en el menor tiempo posible. El equilibrio de carga se puede implementar con software, hardware o una combinación de ambos.
Un desarrollo significativo del modelo, un rediseño del algoritmo y una reimplementación de aplicaciones científicas, apoyados por uno o más modelos de programación adaptados a exaescala , serán necesarios para aprovechar el poder de las arquitecturas de exaescala . Estos serán sistemas basados en una arquitectura homogénea o heterogénea. Por lo tanto, necesitamos un modelo de programación híbrido adaptativo que pueda manejar sistemas de arquitectura tanto homogéneos como heterogéneos.
La supercomputadora petaflopic Titan introducida en 2012 en Oak Ridge National Laboratories con un consumo de nueve megavatios (MW) y una potencia máxima teórica de veintisiete petaFLOPS generó una factura de electricidad anual de aproximadamente nueve millones de dólares. Los costos muy altos, incluida la instalación y el mantenimiento de la infraestructura, se están convirtiendo en factores predominantes en el costo total de propiedad ( TCO ) de una supercomputadora. El costo de energía de estas plataformas durante su vida útil, generalmente de tres a cinco años, podría rivalizar con su costo de adquisición.
La eficacia del uso de energía (PUE) es una medida bien establecida para evaluar la eficiencia energética de los centros de datos. Intuitivamente, PUE mide la fracción de energía entregada a una instalación que alimenta el equipo de TI real. Por lo tanto, para hacer que un centro de datos sea más eficiente energéticamente y, por lo tanto, para reducir su valor PUE, se deben abordar todos los factores que influyen en el consumo de energía: la infraestructura de enfriamiento ( P enfriamiento ); Sistemas de HPC implementados para la gestión de recursos y la planificación y optimización de aplicaciones ( P IT ); pérdidas de potencia debidas a la distribución y conversión eléctricas ( P pérdidas eléctricas ); y varios consumos de energía P misc .
Estos hallazgos también han comenzado a influir en el diseño y la implementación de las HPC para reducir su PUE.
Un superordenador Exascale con la misma tecnología que en las máquinas petaflop conduciría a un consumo máximo de más de 100 MW , con una consecuencia inmediata en el coste de gestión y suministro. La potencia que requiere la computación a exaescala de decenas de megavatios hace que la gestión del consumo de energía sea mucho más difícil en comparación con los sistemas que admiten muchos trabajos pequeños.
Para diseñar máquinas exaflopicas hay que afrontar el principal reto que es poder reducir los elevados costes de consumo energético de estas plataformas. Pioneros de HPC como el Departamento de Energía de Estados Unidos (US DoE), Intel, IBM y AMD han establecido un límite máximo de consumo de energía para una máquina Exascale en el rango de 25 a 30 MW . Por ejemplo, con un consumo de energía objetivo de 20 MW , se requeriría una eficiencia energética de ~ 20 pJ / Op.
Para lograr el objetivo de potencia esperado es necesario tener una mejora significativa en la eficiencia energética del sistema informático , impulsada por un cambio tanto en el diseño del hardware como en el proceso de integración.
Aunque la competencia global por el liderazgo en computación avanzada y análisis de datos continúa con programas en los Estados Unidos, Europa, China y Japón; existe una activa colaboración internacional. El proyecto internacional de software Exascale (IESP) es un ejemplo de esto en informática avanzada. Con la financiación de los gobiernos de Japón, la UE y los Estados Unidos, así como las contribuciones de las partes interesadas de la industria, IESP se estableció para permitir la investigación en ciencia e ingeniería a una resolución ultra alta y con uso intensivo de datos hasta 2020. El equipo internacional de IESP ha desarrollado un plan para un entorno informático común para sistemas de petaescala / exaescala .
Estados Unidos ha sido un líder internacional durante mucho tiempo en la investigación, el desarrollo y el uso de la informática de alto rendimiento (HPC). En 2016 nació una serie de actividades por orden de la Iniciativa de Computación Estratégica Nacional (NSCI), la más importante de las cuales es la iniciativa de computación a exaescala (ECI). Está dirigido por el Departamento de Energía de EE. UU. (DoE), que es una asociación entre la Oficina de Ciencias y la Administración Nacional de Seguridad Nuclear (NNSA). El objetivo es acelerar los proyectos de investigación, desarrollo, adquisición y despliegue con el fin de proporcionar capacidad informática a exaescala a sus laboratorios desde principios hasta mediados de la década de 2020 .
ECI se encarga de la preparación de las instalaciones informáticas y de la adquisición de tres sistemas de exaescala distintos:
En 2015, según el ranking TOP500 , la supercomputadora china Tianhe-2 fue la más rápida del mundo. Contiene 16.000 nodos. Cada nodo tiene dos procesadores Intel Xeon y tres coprocesadores Intel Xeon Phi, una interconexión de alta velocidad patentada llamada “TH Express-2”. Está diseñado por la Universidad Nacional de Tecnología de Defensa (NUDT).
En 2010, Tianhe-1 entró en servicio. Realiza una variedad de tareas como exploración de petróleo, fabricación de equipos de alta gama, medicina biológica y diseño de animación, y atiende a casi 1.000 clientes.
De acuerdo con el plan nacional para la próxima generación de ordenadores de alto rendimiento, China desarrollará un equipo exascale durante el 13 º período del Plan Quinquenal (2016-2020). "El gobierno de la Nueva Zona de Tianjin Binhai, la Universidad Nacional de Tecnología de Defensa (NUDT) y el Centro Nacional de Supercomputadoras de Tianjin están trabajando en el proyecto, y el nombre de la supercomputadora será Tianhe-3", dijo Liao Xiangke, director de informática. escuela de la NUDT. Las nuevas máquinas tendrán una velocidad de cálculo doscientas veces más rápida y una capacidad de almacenamiento cien veces mayor que la del Tianhe-1.
La Comisión Europea y 22 países europeos han declarado su intención de unir sus esfuerzos en el desarrollo de tecnologías e infraestructuras de HPC a través de un proyecto de investigación europeo denominado “H2020”. Esto apoyará tres proyectos relacionados con tecnologías de exaescala y postexascale:
La combinación de estos tres proyectos tiene como objetivo cubrir la imagen completa de una máquina HPC Exascale para 2020.
En Mayo de 2019, Fujitsu y el instituto de investigación japonés Riken anunciaron que se completó el diseño de la supercomputadora post-K, que se entregará en 2021. El nuevo sistema contará con un procesador A64FX basado en ARMv8 -ASVE de 512 bits. Este es un procesador de alto rendimiento diseñado y desarrollado por Fujitsu para sistemas de exaescala . El chip se basa en un diseño ARM8. Este procesador equipa una gran mayoría de teléfonos inteligentes y alberga 48 núcleos de procesamiento complementados por cuatro núcleos dedicados a entradas-salidas e interfaces. Puede gestionar hasta 32 GB de memoria por chip. El sistema estará equipado con un procesador por nodo y 384 nodos por rack, o un petaflop por rack. Todo el sistema constará de más de 150.000 nodos. El Post-K debería tener éxito, alrededor de 2021, el K-Computer, que ha estado equipando desdeseptiembre 2012el Instituto de Investigación Riken en Kobe .
AMD Research, Advanced Micro Devices , el Departamento de Ingeniería Eléctrica e Informática y la Universidad de Wisconsin-Madison proporcionan un estudio integral de una arquitectura que se puede utilizar para construir sistemas de exaescala : “Una Arquitectura Conceptual de Nodo a Exaescala (ENA), que es la bloque de computación para una supercomputadora de exaescala . El ENA consiste en un Exascale Procesador heterogéneo (EHP) acoplado con un avanzado sistema de memoria. El EHP proporciona una unidad de procesamiento acelerada de alto rendimiento ( CPU + GPU ), una memoria 3D de ancho de banda integrado y un uso masivo de matrices de apilamiento y tecnologías de chip para cumplir con los requisitos de la exaescala de TI de manera equilibrada.
Una arquitectura de nodo de exaescala (ENA) como el bloque de construcción principal para las máquinas de exaescala . La ENA cumple los requisitos de cálculo exaescala mediante:
Las empresas de telecomunicaciones e Internet como GAFA (Google, Apple, Facebook y Amazon) deben administrar una cantidad gigantesca de datos a diario. Fuertemente vinculada a la nube y al Big Data en sus grandes centros de datos , la informática de alto rendimiento encuentra su lugar en el procesamiento de estos datos masivos.
La simulación numérica del funcionamiento de un arma nuclear se puede realizar utilizando una supercomputadora u obtener certificados y evaluaciones para garantizar que las existencias nucleares del país sean seguras, protegidas y fiables.
La exaescala de computadora acelera la investigación del cáncer al ayudar a los científicos a comprender las interacciones básicas de las proteínas moleculares clave y automatizar el análisis de información de millones de registros de pacientes con cáncer para determinar las estrategias de tratamiento óptimas. También permitirá a los médicos predecir los tratamientos adecuados para el paciente modelando las respuestas a los medicamentos.
En biología , será posible simular en detalle el funcionamiento de las membranas de las células vivas para comprender mejor cómo los fármacos entran y actúan en la célula. La secuenciación del genoma actual requiere una operación y almacenamiento de cantidades masivas de datos genéticos. La computación a exaescala será un desarrollo necesario para apoyar los esfuerzos de investigación en curso de los biólogos, computacional. Mantener el ritmo de la generación de datos experimentales para permitir nuevos modelos multifísicos multiescala de procesos biológicos complejos. La informática seguirá evolucionando y, en última instancia, transformando la biología de una ciencia observacional a una ciencia cuantitativa.
De manera más general, los desafíos biológicos y biomédicos abarcan la anotación y comparación de secuencias, la predicción de la estructura de las proteínas; simulaciones moleculares y máquinas de proteínas; vías metabólicas y redes reguladoras; modelos y órganos de células enteras; y organismos, ambientes y ecologías.
Los modelos informáticos de fenómenos astrofísicos , a escalas temporales y espaciales tan diversas como la formación del sistema planetario , la dinámica estelar , el comportamiento de los agujeros negros , la formación galáctica y la interacción de la materia oscura bariónica y putativa, han proporcionado nuevas perspectivas. teorías y datos experimentales complementados.
La cosmología , la física de altas energías y la astrofísica son parte de la ciencia que busca comprender la evolución del universo, las leyes que gobiernan la creación y comportamiento de la materia. Dependen de modelos informáticos avanzados, por lo que el superordenador exaflópico será un acelerador en estas diferentes investigaciones.
Las HPC permiten reproducir, a través del modelado y la simulación , experimentos que no se pueden realizar en el laboratorio cuando son peligrosos, costosos, duraderos o muy complejos. La simulación numérica ha permitido a Cummins construir mejores motores diésel más rápido y a menor costo, a Goodyear a diseñar neumáticos más seguros mucho más rápido, a Boeing a construir aviones con menor consumo de combustible y a Procter & Gamble a crear mejores materiales para productos domésticos.
El objetivo es facilitar y fomentar el acceso a HPC para las PYME para que puedan simular fenómenos más globales, limitar o sustituir experimentos, acortar la fase de prueba o procesar gran cantidad de datos heterogéneos. El uso de la informática de alto rendimiento se utiliza para la competitividad de las PYME.
La fusión nuclear podría ser una importante fuente de energía. Para desencadenar la reacción dentro de un reactor nuclear , uno de los principales desafíos será confinar bien el calor liberado por el fenómeno en el centro de la máquina. Los fenómenos son complejos y requieren un conjunto de ecuaciones matemáticas que generan un gran volumen de datos a procesar. Las simulaciones numéricas con supercomputadoras exaflopicas permitirán dar un paso importante en esta dirección.
La energía solar se hará más eficiente gracias al descubrimiento de materiales que convierten la luz solar en electricidad de manera más eficiente.
La energía eólica a través de la capacidad de simulación predictiva validó el ciclo de diseño, lo que permitió a la industria reducir el tiempo de desarrollo de motores y turbinas eficientes.
La comprensión de los cambios climáticos y pasado, presente y futuro es uno de los principales retos científicos del XXI ° siglo. En esta búsqueda, la simulación se ha convertido en una herramienta indispensable. Este enfoque permite comprender mejor los mecanismos que regulan el clima y así realizar pronósticos en escalas temporales que van desde la temporada hasta varios siglos, en el caso de escenarios de cambio climático.
En 2018, el pronóstico de cinco días fue tan preciso como el pronóstico de cuatro días diez años antes. Esta notable mejora es posible con una potencia de cálculo de aproximadamente cinco petaFLOPS. Estos pronósticos permiten a los gobiernos, los sectores público y privado planificar y proteger a las personas o la propiedad. Esto ahorra miles de millones de dólares cada año.
Europa ha estado a la vanguardia de las previsiones meteorológicas globales a medio plazo desde la década de 1980. La Oficina Meteorológica del Reino Unido y Météo-France tienen supercomputadoras que están clasificadas en el TOP500 . Météo-France está planeando una supercomputadora a finales de 2020 en la plataforma Sequana XH2000, desarrollada por Bull (una subsidiaria del grupo Atos ) con una potencia de cálculo teórica de 20,78 petaFLOPS.
Los modelos exaflopicos de pronóstico del tiempo podrán predecir con mayor precisión y rapidez el momento y la trayectoria de eventos climáticos severos como los huracanes. Esto será posible gracias a una resolución espacial mucho mayor, incorporando más elementos físicos y asimilando más datos de observación. Estos avances son fundamentales para permitir el tiempo suficiente para las evacuaciones y las medidas de protección, por ejemplo.
Uno de los objetivos es desarrollar una arquitectura de referencia en los próximos años que permitirá que los modelos meteorológicos y climáticos globales operen a una resolución horizontal de 1 km con un caudal de 1 SYPD (los mejores centros de predicción en 2018 están ejecutando simulaciones en un resolución espacial de 10 a 15 km ). Por tanto, se pueden tener en cuenta los fenómenos de pequeña escala, mal reproducidos o incluso ausentes en los modelos climáticos existentes, que sin embargo desempeñan un papel importante.
: documento utilizado como fuente para este artículo.