CCAD instala servers de cómputo en INTA

En septiembre de 2019 nos contactaron para acondicionar equipos destinados a Bioinformática desde el recientemente creado UFYMA, una Unidad Ejecutora de doble dependencia entre CONICET y Centro de Investigaciones Agropecuarias (CIAP) del INTA.

 

 

Se puso en funcionamiento un cluster compuesto por una cabecera HP DL580 Gen9 con 2*Xeon E7-4809v3, 512 GiB RAM y 5*256 GiB SSD RAID5 storage
y dos nodos de cálculo HP ProLiant XL170r Gen9 con 2*Xeon E5-2620v4 y 128 GiB RAM.
Los equipos estaban a la espera de instalar desde hace un par de años, y como el valor de las supercomputadoras se deprecia con el tiempo, el CPA de CONICET y técnico del CCAD, Lic. Marcos Mazzini aprovechó toda la experiencia de Mendieta y Mulatona.
Rápidamente instaló CentOS 7 y OpenHPC con SLURM en la cabecera y se configuraron los nodos para inicio remoto, a fin de poner en funcionamiento el servidor de cálculo.
También se instaló R y varios paquetes con adaptaciones para ejecutar desde el sistema de colas.
Otra parte importante del trabajo consistió en instalar Galaxy e integrarla con el sistema de colas. Galaxy es un sistema web que baja el umbral de entrada para aprovechar tecnologías de Computación de Alto Desempeño. Desde esta plataforma los usuarios cuentan con variadas herramientas de bioinformática y mediante la interfaz web pueden enviar los trabajos al cluster y manipular los resultados.

Marcos Mazzini, técnico del CCAD, trabajando en los servers del UFYMA (CONICET-INTA)

También se agregaron usuarios que realizarán secuenciaciones relacionadas a COVID-19. Se está a la espera de que la situación se normalice para transferir la administración al personal del CIAP.

Infraestructura CCAD y COVID-19

En marzo pusimos a disposición una partición y prioritaria para trabajos relacionados con COVID-19. Hubo tres proyectos que están haciendo uso de la infraestructura para simulaciones: dos de drug repurposing con diferentes enfoques, y uno sobre estrategias de cuarentena. Se utilizaron hasta ahora 54.000 horas/core de trabajo computacional.

Flyer realizado por Marcos Mazzini.

 

 

 

 

 

 

A partir del inicio del ASPO en Argentina, ofrecimos tiempo de cómputo prioritario para proyectos relacionados a COVID-19. Hubo tres proyectos que utilizaron los recursos computacionales del CCAD-UNC.

  • Drug repurposing de la FCQ-UNC: screening virtual de para predecir la interacción de fármacos con proteínas y testear fármacos ya aprobados por la FDA con el objetivo de comprobar si alguno es efectivo contra el SARS-CoV-2.
  • Drug repurposing del IIMT-Universidad Austral: el mismo objetivo que el anterior, pero con diferente base de datos de fármacos y la utilización de química cuántica para los cálculos de interacciones.
  • Estrategias de cuarentena basados en circulación de personas de FaMAF-UNC.

Segundos usos a fármacos conocidos

El equipo de la FCQ-UNC formado por Marcelo Piuatti (Química Orgánica), Alfredo Quevedo (Farmacia), Rodrigo Quiroga (Química Teórica), Alexis Paz (Química Teórica), Sergio Ribone (Farmacia) y Marcos Villarreal (Química Teórica).

Los investigadores nos cuentan de qué se trata el proyecto.

El objetivo del proyecto es el reposicionamiento de fármacos (repurposing) para enfrentar al COVID-19. El repurposing consiste básicamente en encontrar un nuevo uso para un fármaco ya conocido. En nuestro caso estamos utilizando docking molecular y simulaciones de dinámica molecular para realizar las predicciones.
En una primera etapa hicimos una exploración de la capacidad de unión de los más de 3500 fármacos aprobados para uso humano por la FDA (Food and Drug Administration de EEUU) en las 26 proteínas que conforman el virus SARS-CoV-2. De un primer análisis se identificaron varias proteínas como potenciales blancos farmacológicos, como ser la proteína Spike, la Helicasa y la 2-O-MT.
A mediados de Abril surgió una colaboración con el Dr. Cameron Abrams (Universidad de Drexel, Filadelfia) y el Dr. Andrés Finzi (Universidad de Montreal). Esta colaboración se centra en encontrar fármacos que mediante la inhibición de la proteína Spike impidan el ingreso del virus a la célula huésped. En la colaboración, el Dr. Abrams realiza simulaciones de dinámica molecular (MD) de la proteína Spike, nosotros realizamos docking y cálculos MM-GBSA sobre los resultados de la MD
(ver abajo el render estático y dinámico) y el Dr. Finzi ensaya experimentalmente las predicciones en un modelo de infección viral que ha puesto a punto en su laboratorio. Actualmente se han probado 7 compuestos con resultados un poco contradictorios. En un comienzo los ensayos mostraron potencial inhibitorio en varias de las drogas, mientras que en una segunda repetición fueron inactivos. En el laboratorio del Dr. Finzi se encuentran realizando nuevos ensayos al respecto.
Mientras aguardamos novedades estamos por retomar la idea original de estudiar las restantes proteínas del virus.

En la parte de docking, los investigadores hicieron un fork del proyecto iDock que denominaron Vinardo. Los investigadores explican que fué lo que cambiaron.

Nosotros le metimos mano, más del lado de la química que desde el lado de computación. Básicamente mejoramos la forma de estimar la energía de unión, que es el core del problema.

Vinardo no corría de manera eficiente en los 64 núcleos KNL de los nodos de Eulogia, por lo que el CPA Principal de CONICET Carlos Bederián transformó el paralelismo que hacía uso de boost::threads a OpenMP obteniendo una ganancia sustancial de desempeño.

Otra vuelta de tuerca al Drug Repurposing

El Laboratorio de “Diseño Computacional de Fármacos e Informática Biomédica” del Dr. Claudio Cavasotto (Instituto de Investigaciones en Medicina Traslacional, CONICET-Universidad Austral) publicó recientemente un trabajo usando la estrategia de reposicionamiento de fármacos, en el que se analizaron más de 11.000 compuestos, y se identificaron candidatos promisorios para COVID-19.

Juan Di Filippo, becario doctoral del Dr. Cavasotto estuvo utilizando MOPAC 2012 (Molecular Orbital PACkage), un paquete de química quántica (QC), para cálculos de proteínas del SARS-CoV-2 que genera el COVID-19. El trabajo fué además reseñado por la Universidad Austral, la Agencia Telam y el diario Clarín. Los autores nos comentan que,

La idea fue optar por una estrategia de reposicionamiento de fármacos, es decir encontrar un uso nuevo a un fármaco conocido. De esta forma, se ahorra mucho tiempo y se reducen los costos, ya que los fármacos conocidos ya han pasado las etapas de evaluación de toxicidad y propiedades farmacológicas. Ten en cuenta que el tiempo y costo total para desarrollar una nueva droga desde sus inicios se estima en +10 años y +2.5 billones de dólares.

Es importante marcar la diferencia con el trabajo realizado por el equipo de la FCQ-UNC. Una de las diferencias es la base de datos de moléculas, que fue construida por el Dr. Cavasotto a partir de fármacos aprobados para su uso o que están avanzadas en las etapas de evaluación.
Otra diferencia es que además de Spike se utilizan otras dos proteasas como blanco de la drogas. Se utilizó el paquete MOPAC 2012 de química cuántica (QC) para generar el ranking de que tan «buenas» serían esas moléculas como ligandos de las proteínas de interés. El método es un desarrollo del grupo de Cavasotto y resulta novedoso respecto a la metodología más tradicional de scoring basado en mecánica clásica.

Estrategias de Cuarentena

Benjamín Marcolongo de FaMAF-UNC realizó simulaciones de estrategias de cuarentena basados en la circulación de personas. El nos cuenta de que se trata su trabajo:

Estoy usando Mendieta para hacer simulaciones de epidemias con modelos de agentes móviles que pueden transportar información -en este caso una enfermedad-. Es decir, simulamos personas -agentes móviles- que se mueven, interactúan -a través de choque- y que durante esa interacción pueden transmitir la enfermedad. Esto es, básicamente, el proceso concreto con el que las enfermedades se propagan.

Benjamín compara esta forma de atacar el problema con las llamadas Teorías de Campo Medio, donde el ejemplo que más conocemos es el modelo que utiliza R0 también conocido como Ritmo Reproductivo Básico, que puede depender de muchas cosas

El objetivo de la investigación es entender cuál es el rol de la movilidad o circulación de personas en la propagación de una enfermedad. También se busca explicar las fluctuaciones en el proceso epidémico a partir de estas circunstancias de movilidad. Marcolongo se pregunta:

¿Por qué en ciudades con características similares se pueden ver resultados tan diferentes? ¿Cómo se conecta la aleatoriedad del movimiento de los individuos en una sociedad con la probabilidad de que haya una epidemia? ¿Cómo varían los resultados respecto de distintas «estrategias» de movimientos? ¿Cuán sensible son las respuestas de los modelos a la implementación de cuarentenas -que se traducen en políticas de reducción de circulación-? ¿Cuál es el alcance y las limitaciones de este tipo de teorías para explicar fenómenos tan complejos como las epidemias? ¿Es posible predecir un pico y la duración de un pico? ¿Es posible asociar una teoría basada en distribuciones de probabilidades que sirva para hacer predicciones razonables? Son algunas de las preguntas que nos estamos haciendo y que en gran medida estamos empezando a entender.

El rol del CCAD-UNC es fundamental, ya que el proceso de simulación es computacionalmente intensivo.

La supercomputadora me permitió hacer miles de experimentos que son costosos. En cada simulación tengo que evolucionar en el tiempo una sociedad con todos sus individuos y con todas sus interacciones. Hacer tantos experimentos numéricos -que son necesarios para construir la estadística- con mi computadora de escritorio me hubiera llevado meses -tal vez años-. Con un nodo de Mendieta y paralelizando las simulaciones pude hacer -al día de la fecha- alrededor de 50 mil simulaciones de epidemias en distintas condiciones. Estoy convencido que sin este nodo  mi investigación hubiera sido mucho más lenta y con resultados más difusos.

El software es un desarrollo propio en C++ que utilizar un red-black tree para optimizar la parte de las interacciones. Aunque el programa simula en un tiempo razonable 100.000 partículas, es decir el tamaño de una ciudad, se optó por un modelo más pequeño de 1000 agentes para poder hacer estadística, ya que los procesos son estocásticos. Marcolongo ensaya a manera de resumen.

Lo principal que vemos es que la movilidad es muy importante para entender si hay o no epidemias y las fluctuaciones son enormes. Es decir: si tirás una epidemia en la misma ciudad podés tener resultados muy diferentes.

 

Notas relacionadas

Tres servidores nuevos para Eulogia

Aumentamos la capacidad de Eulogia en más de 50%, pero con las elecciones de diciembre de 2019 y la pandemia todo se retrasó. La historia atrás de una barata de nodos para Eulogia que encontramos en eBay.

Cuando Carlos Bederián encontró el 22 de octubre del año pasado una promo de nodos KNL (Xeon Phi 7210) en eBay, no pensamos que podríamos comprarlos. Carlos conectó un par de cosas y encontró que el vendedor era Lambda Labs con sede en San Francisco, California, EEUU.

El 25 de octubre ya estábamos en contacto con la empresa pidiendo un presupuesto oficial, y el 31 ya teníamos un presupuesto mejorado y acorde al bolsillo del CCAD-UNC. El 15 de noviembre presentamos ROECYT y el 28 se giró el dinero desde el BNA al banco receptor vía el BCRA.
La transferencia llegó a destino 99 días después, el 6 de marzo. Las razones fueron varias: elecciones presidenciales 2019, cambio de gobierno y limitaciones del BCRA.

Ese mismo día, desde Lambda Labs nos mostraban las cajas listas para ser despachadas. Tres chasis 2U de 4 nodos KNL 7210 cada uno, totalizando 12 procesadores de 2.66 TFLOPS pico cada uno. Nos estaban mostrando 32 TFLOPS para sumar a los 56 TFLOPS de Eulogia. Esto significaba aumentar la capacidad de nuestra máquina un 57%.

La pandemia del COVID-19 avanzaba a pasos agigantados y el 16 de marzo se cerraron las fronteras en Argentina. Con ello la llegada de los vuelos MPTO a SACO quedaban cancelados, la vía usual que tenemos para recibir envíos. El 20 de marzo empezaba el ASPO en el país, y en San Francisco (EEUU) había medidas similares. A principios de mayo supimos que los vuelos de COPA a Córdoba se reanudarían recién el 7 de septiembre.

El 2 de junio, 88 días después de que estuvieran listos, el forwarder contratado nos indica que a un mayor costo podrían traer la carga vía SCEL y luego por camión a Aduana Córdoba. Los 125 Kg de carga viajaron el 12 de junio. Estimamos que diez días después estarán en Córdoba.

Los módulos vienen sin memoria y sin disco. Estaremos haciendo una compra comunitaria entre todos los usuarios del CCAD-UNC para llenar los 12 nodos y ponerlos a producir. Necesitamos:

  • 72 módulos 16 GiB DDR4-2400 2Rx4 ECC REG.
  • 12 discos Intel S4610 240GB.

Hacer HPC en Argentina es un deporte de riesgo. En el CCAD-UNC lo practicamos a diario.

Actualización

Nueva demora. Por nieve en el Paso Cristo Redentor, la carga llegará 14 días después.

Actualización II

El 30 de junio de 2020 el camión llegó a Córdoba.

Actualización III

El miércoles 8 de julio finalmente pudimos sacar los equipos y dejarlos en el datacenter de la PSI en el Pabellón Argentina de Ciudad Universitaria.

Queremos agradecer especialmente las gestiones de Isidoro Díaz (Comercio Exterior, FaMAF-UNC), Alejandra Maldonado (Área Económico Financiera, FaMAF-UNC), Susana Navas (Córdoba Internacional), Mario Farías  (Comercio Exterior UNC), Marcela Giomi (Comercio Exterior UNC) y Marcela Yorio (AFIP-DGA) que hicieron posible que hoy ya tengamos estos 32 TFLOPS pico en nuestras manos.

Notas periodísticas

 

Federico Barone: «no se puede hablar de desarrollo tecnológico nacional sin hablar de HPC»

Un físico argentino obtuvo el premio a la mejor tesis del Master en HPC del ICTP (MHPC) en Trieste, Italia. «Disculpá la demora, fueron unas semanas complicadas por acá. De hecho el plan de sacarme la foto con el cluster es imposible… «, nos respondió Federico que está pasando la cuarentena por el COVID-19 en la zona más afectada de Europa.
CCAD: ¿Qué estudiaste en Argentina? ¿Cómo llegaste a Trieste para dedicar 2 años de tu vida a formarte en HPC?
Federico Barone: Mi llegada a Trieste y al mundo de HPC fue un tanto aleatoria. Estudié Ciencias Físicas en la UBA, y aunque siempre me interesó la programación, no fue algo que estudié formalmente. Mi interés fue desde el vamos la física aplicada donde la computación cumple un rol fundamental. Durante la tesis de licenciatura y una vez terminada la carrera trabajé en YTEC desarrollando modelos matemáticos de distintos fenómenos. En ese período realicé un curso de programación en paralelo organizado por el ICTP con la expectativa de aplicarlo a mis tareas en YTEC. A partir de ese workshop quedé muy enganchado con todo lo relacionado a HPC y terminé optando por aplicar al MHPC para profundizar mis conocimientos en el área.
CCAD: En la Lic. en Física de UBA y/o en YTEC ¿Habías tenido experiencia en computación paralela?
FB: La licenciatura no incluye ningún contenido formal en computación paralela. Empecé a incursionar en el tema por recomendación particular de compañeros y profesores, motivado en algún problema de física puntual en donde la programación en paralelo transformaba un problema aparentemente no computable en uno computable. En YTEC trabajaba desarrollando simulaciones en donde HPC podía ser relevante pero no llegué a implementarlo ya que ese fue el momento en que me fui a hacer el Master a Trieste.
CCAD: Por tu formación de físico, ¿Qué te costó más y que te resultó mas sencillo de la Maestría?
FB: Al nunca haber recibido educación formal en programación lo que más me costó/cuesta es modificar la manera en que programo de forma tal que el código sea legible, comprensible y sobre todo mantenible. Es muy distinto desarrollar código para uno mismo que para otras personas.
La ventaja de tener una formación en física fue en todo lo relacionado a HPC para programación científica. El máster tiene una gran carga horaria dedicada a este tipo de problemas y la base en física, pero sobre todo en matemática, fue de gran ayuda.
CCAD: ¿De que se trató tu trabajo final de la Maestría? ¿Qué equipamiento utilizaste?
FB: Mi trabajo final no fue una tesis ‘tradicional’ dentro de las que suele haber en el master. Trabajé en conjunto con un hospital oncológico para desarrollar un algoritmo de compresión de imágenes médicas. El objetivo era optimizar el acceso y el análisis de los datos. El algoritmo está basado en redes neuronales y fue entrenado utilizando un nodo con dos tarjetas gráficas NVIDIA Tesla P100.
CCAD: Esta es la segunda vez consecutiva que un argentino/a gana el premio a la mejor tesis del MHPC, antes lo recibió Alejandra Foggia, los dos con formación de grado en física. ¿Las y los físicos quieren conquistar este bastión de las Ciencias de la Computación?
FB: Imposible que lo conquistemos, pero sin lugar a duda es una herramienta accesoria que a medida que pasan los años se está transformando en una necesidad excluyente para todo aquel que quiera hacer investigación de punta tanto en Física como en otras áreas.
CCAD: ¿Vas a volver a Argentina para aplicar tus conocimientos de HPC?
FB: Mi idea es volver a la Argentina pero todavía tengo mucho camino por recorrer antes de poder contribuir de alguna manera significativa.
Estoy en plena etapa formativa y necesito ganar experiencia trabajando en problemas reales.
CCAD: ¿Cómo ves al HPC en Argentina? ¿Qué se debería hacer a futuro?
FB: Como en cualquier rama tecnológica desarrollada en el país el capital humano está pero hacen falta más y mejores inversiones. La inversión en el cluster TUPAC fue una buena señal en su momento y es un camino que espero se retome. Quizás un poco influenciado por mi entorno actual considero que no se puede hablar de desarrollo tecnológico nacional sin hablar de HPC.

El CCAD le dará prioridad a proyectos relacionados a COVID-19

El Directorio del Centro de Computación de Alto Desempeño (CCAD-UNC) anuncia que dará prioridad absoluta en sus sistemas de cómputo a todo cálculo o procesamiento de datos relacionado con proyectos orientados a paliar el impacto de la pandemia ocasionada por el virus COVID-19. Si ya es usuario debe comunicar el uso a soporte@ccad.unc.edu.ar si todavía no lo es debe escribir a director@ccad.unc.edu.ar  a los fines de acelerar la solicitud y acceder a los recursos computacionales que brinda el centro. Nuestro equipo dará asimismo prioridad a la instalación y puesta a punto de software específico para estas actividades. El equipamiento disponible es:

Software disponible actualmente: AMBER, LAMMPS, GROMACS, R (entre otros) y compiladores GNU e Intel. Entorno Python provisto mediante Anaconda.

Guacolda llega al NLHPC de Chile

El pasado 15 de enero, se inauguró en el NLHPC de la Universidad de Chile el cluster Guacolda (2019) que se suma a Leftraru (2014), con una inversión cercana a 630.000 USD.

Guacolda es una mezcla de tres tipos de unidades.

La conexión es infiniband FDR de 56 Gbps y tiene 312 TiB de almacenamiento Lustre a través de un equipo DDN EXAScaler.

Respecto al cómputo puro, los 37U de espacio en rack contienen 118 pastillas Intel Gold 6152 que totalizan 2596 núcleos Skylake. Teniendo en cuenta la documentación «Intel ® Xeon ® Processor Scalable Family, Specification Update, November 2019«, se indica que para los 22 núcleos funcionando con AVX-512 la frecuencia máxima es de 2.0 GHz con una frecuencia base de 1.4 GHz. Suponiendo condiciones inmejorables de disipación de calor y poca corriente de fuga, la Rpeak por pastilla es de 22*4*(512/64)*2.0GHz = 1408 GFLOPS en frecuencia máxima y 22*4*(512/64)*1.4 GHz = 985.6 GFLOPS en base frequency. El conjunto de 118 processor SKUs erogan un Rpeak de 166 TFLOPS a máxima frecuencia y como mínimo tiene 116 TFLOPS. Con una eficiencia aproximada de 0.94 en HPL para estos procesadores, el Rmax está en un rango de 109 a 156 TFLOPS.

Teniendo en cuenta las 4 Tesla V100 que tienen un Rpeak de 7 TFLOPS y Rmax de 5 TFLOPS, el conjunto total debería erogar un máximo de 176 TFLOPS Rmax.

Ginés Guerrero, Director Ejecutivo del NLHPC, gentilmente nos facilitó el HPL.dat que arrojó 111 TFLOPS efectivos de Rmax de CPU pura. También nos facilitó una muy buena galería de fotos.

Adjudicación Período de Uso Exclusivo CCAD, verano 2020

Luego de analizar los pedidos de uso exclusivo realizamos la asignación del área de cómputo 32 nodos * 45 días de la siguiente forma, totalizando 1440 días*nodo de cómputo exclusivo.

Como en el período de uso exclusivo invierno 2019, la asignación de recursos computacionales es con prioridad. Si los adjudicados no están utilizando o quedan huecos de cualquier tipo, los usuarios fuera de este mosaico tendrán tiempo de ejecución.

Llamado uso exclusivo, verano 2019-2020

Se llama a propuestas para el período de uso intensivo y exclusivo de parte de los recursos computacionales del CCAD durante el receso de verano de la UNC, 6/12/2019 al 26/1/2020 inclusive.
Este llamado está destinado a quienes utilizan habitualmente los recursos pero cuentan con simulaciones cuya demanda de recursos provoca una gran espera con la carga normal de trabajos (30 días).

Además se promueve el uso multinodo, por lo que sólo se aceptarán pedidos que hagan uso conjunto de al menos dos nodos con buen scaling (todo los paquetes científicos que hacen uso MPI como QE, LAMMPS, GROMACS, OpenFOAM, escalan bien).

Para los usuarios beneficiarios se dispondrán colas exclusivas en SLURM con preemption, lo que significa que en caso de que no se utilicen los recursos, se podrá continuar con la ejecución de los trabajos de la cola general.
El resto de las facilidades (Mulatona y Mendieta fase 1) podrán ser utilizadas normalmente como se viene haciendo.

Los recursos disponibles son:
Eulogia: 20 nodos KNL con 64 o 68 cores y 96 GiB de RAM por nodo.
Mendieta: 11 nodos con 2 * Intel Xeon E5-2680 v2 de 10 cores cada uno a 2.8 GHz. 64 GiB de RAM por nodo.

Fechas:
Postulacion:
desde jueves 5/12 hasta el miércoles 11/12.
Comunicado de resultados:
Viernes 13/12.
Pruebas de escalabilidad multinodo:
16/12 – 22/12.
Uso exclusivo:
23/12 – 26/1/2020.

El pedido deberá ser formalizado a través del siguiente formulario.

Brasil vuelve al TOP500 con una Santos Dumont renovada

Con un aporte de R$ 63M (14.4M USD) provenientes del 1% del valor bruto de la producción anual de petróleo del Campo de Mero en la Cuenca de Santos bajo el Consorcio de Libra, el Laboratório Nacional de Computação Científica (LNCC) en Petrópolis, Brasil, compró nuevo equipamiento para HPC.

La asignación de recursos para actividades de investigación y desarrollo forma parte de las obligaciones del contrato de reparto de la producción de petróleo.

Con este aporte se adquirieron 4 componentes principales:

Gabinete de Cómputo X1000, hay 2 iguales

Módulo CPU

Módulo CPUX1120 con 3 nodos 2*Xeon 6252

Cada Xeon 6252 tiene dos unidades FMA AVX-512 en cada uno de sus 24 núcleos, que cuando están todos activos permite una frecuencia máxima de 2 GHz según las turbo tables que da el fabricante. Esto totaliza 2*2*(512/64)*24*2 = 1536 GFLOPS por socket de doble presición pico.

Con 3*2 procesadores por blade se obtiene 9.216 TFLOPS en cada uno. Todo el gabinete eroga entonces 866.304 TFLOPS. Esto lo pone bien lejos del mínimo del TOP500-Nov19, ya que con una eficiencia aproximada del 95% para este tipo de procesadores en DGEMM, no llega a los 1293 TFLOPS Rpeak mínimo.

Módulo GPU X1125 con 2*Xeon 6252 + 4*V100Módulo GPU

Módulo GPU

Cada V100 SXM2 tiene una potencia pico en fp64 de 7.45 TFLOPS, con lo cual sumando las 4 GPUs y las 2 CPUs cada blade totaliza 32.87 TFLOPS.

Todo el gabinete con sus 94 blades suma 3.09 PFLOPS Rpeak de doble precisión. Para este gabinete se corrió HPL y esta medida es la que le permitió a Brasil volver al TOP500 con el puesto #193 en el ranking de noviembre de 2019.
Los números que se consignan en el ranking son 1.84 y 2.72 de Rmax y Rpeak, lo que indica que para HPL solo se utilizaron las V100 (94*4*7.45 = 2.8 PFLOPS pico).

Notas periodísticas

Curso de posgrado usando ADF para Química Orgánica y Organometálica

Del 2 al 6 de diciembre el Dr. Diego Andrada de la la Universitat des Saarlandes, en Alemania (https://inorg-comp-chem.com) dará un curso de posgrado en la FQC sobre «Métodos Computacionales en Química Orgánica y Organometálica».

El programa tiene 8 temas (Introducción, Métodos Mecano-cuánticos I, Métodos Mecano-cuánticos II, Modelos de Solvente, Aplicación del Modelado al estudio de Reacciones Orgánicas, Predicción de Propiedades Químicas, Estudios de Sistemas Organométalicos y Fotoquímica Computacional) y 4 trabajos prácticos (Análisis Normal. Propiedades Moleculares y Reactividad, Estudio de mecanismos de reacción empleando DFT. SEP, Sistemas organometálicos. Análisis y descripción del enlace, Estado excitado. Absorvancia/Fluorescencia.)

Los trabajos prácticos serán sobre el software Amsterdam Density Function (ADF) que lo produce y mantiene una empresa spinoff de la VU de Amsterdam.