HPC: inversión y soberanía

Federico Stasyszyn y Dante Paz, miembros del Directorio del CCAD, participaron en una entrevista en el podcast “El Bestiario de Internet”, de Fundación Vía Libre, y conversaron acerca de la importancia y dificultades de lograr una soberanía de cómputo.

Durante una distendida charla, Federico Stasyszyn y Dante Paz, miembros del Directorio del Centro de Computación de Alto Desempeño (CCAD, UNC) e investigadores del CONICET en el Instituto de Astronomía Teórica y Experimental (IATE, CONICET-UNC), exploraron el panorama local y mundial en relación a la High Performance Computing (HPC) o Sistemas de Computación de Alto Rendimiento.
“La definición sobre qué es una supercomputadora, es dinámica, va cambiando, pero básicamente refiere a un conjunto de computadoras que se pueden comunicar entre sí y pueden hacer cálculos mucho más importantes de los que uno podría hacer en una computadora doméstica y, hacer estos cálculos de manera separada conectado a una red de alta velocidad y poder juntar estos resultados parciales y obtener un resultado concurrente, es decir completo. Pero de manera práctica, para definir qué es y qué no es una supercomputadora, la comunidad ha zanjado la discusión a través del TOP500, una lista de las supercomputadoras más grandes del mundo, es decir, los equipos que son capaces de realizar el mayor número de operaciones matemáticas por segundo”, define Dante Paz.
Argentina no cuenta con ninguna supercomputadora que ingrese en ese ranking, a pesar de las inversiones que, con sus falencias, se vienen haciendo en los últimos años. Por el contrario, aquellos países que han logrado desarrollar su economía y su sistema científico en los últimos años, han impulsado también su crecimiento en esta área. Un buen ejemplo de esto es el de China que, según comentó Soldán, conductor de “El Bestiario de Internet” en 1996 tenía sólo una supercomputadora en el TOP500 -en el puesto 298- y hoy tiene 168, dos de ellas en el TOP10, ocupando los puestos 4 y 7. Este cambio fue coherente con el crecimiento y desarrollo de ese país a nivel general.
En relación a esto, Federico Stasyszyn expresa que “la cantidad de países que tienen muchas supercomputadoras en el TOP100 es altísimo, ya que cuando un país empieza a invertir en tecnología, empieza a crecer el requerimiento de cómputo, ya sea para abrir nuevos campos, investigar cosas que no se pueden investigar de otra forma, o para reducir costos en ciertas aplicaciones”. La pregunta que hacía, entonces, Soldán y que parece muy pertinente hacernos, es si es posible para un país como el nuestro, entrar a este ranking. “No es suficiente entrar al TOP500, como si fuera ganar un mundial, sino que es una política que requiere mucho trabajo de capacitación y mantenimiento que no tiene sentido hacer sólo por un año. Son recursos, investigaciones que se pierden. Entonces, si bien cuesta llegar hasta ahí, hay que mantenerse. Argentina no está en ese top, se está preparando ¿Tenemos los recursos humanos? ¿Tenemos los equipos? ¿Tenemos investigadores que le sacarían provecho? No sé. La capacidad humana sí, pero hay que apuntalar todo el sistema con una política pública constante y me parece que todavía estamos verdes en eso”, responde Federico.
Dante Paz agrega que el ciclo de no mantener la inversión es muy costoso, quita recursos humanos que en momentos complicados se ven obligados a emigrar o deben cambiar la línea de investigación porque no tienen la capacidad de cómputo necesaria para seguir avanzando en la línea en la que venían. “Se tiende a pensar en las supercomputadoras como en un gran microscopio, como un equipamiento de gran envergadura y nada más. Pero al hardware de HPC hay que pensarlo como si fuera perecedero, la obsolescencia es voraz, al poco tiempo deja de ser competitivo por el propio avance de la industria”.

HPC: una gran inversión

Este tipo de computadoras tienen una vida útil muy corta, la capacidad de cómputo o el rendimiento energético va decreciendo comparativamente y en 5 años se vuelven obsoletas. “Entonces existe la necesidad continua de ir manteniéndolas, por eso existe el TOP500, es la forma en la que se van auto midiendo y auto exigiendo las diferentes supercomputadoras para seguir siendo competitivos”, explica Federico.
Sin embargo, hay muchos capitales privados en HPC y eso se da porque es una de las inversiones más rentables a nivel mundial. Muchos son los ejemplos que permiten afirmarlo: la industria farmacéutica que puede probar fármacos a través de simulaciones o, en relación a la energía eólica con plataformas marítimas donde las simulaciones permiten calcular cómo debe construirse un molino que se encontrará sobre una base que se mueve por el oleaje. Se ahorran millones de dólares por poder ensayar diversas soluciones mediante simulaciones, en lugar de hacerlo en la práctica.
Pero, además, los equipos rinden frutos, superando los costos iniciales muy rápidamente. Según explicó Dante en la entrevista, la última computadora que se compró en el CCAD fue Serafín y costó U$S 386.000. En menos de dos años, si se tiene en cuenta que no sólo generó recursos por servicios a empresas sino también que la Universidad ahorró mucho dinero en pagos que de otro modo debería haber realizado a otras compañías para acceder a supercomputadoras, la inversión inicial se recuperó con creces. “Entonces, a la obsolescencia no hay que pensarla como un problema sino como parte del proceso que te permite con el propio rendimiento, ir haciendo inversiones cada vez mejores”, concluyó Paz.

Los beneficios de la HPC, tal como se vio en el CCAD, impactan mucho más allá de lo económico. “El impacto de Serafín ha sido espectacularmente bueno para la comunidad científica porque la mismo cambio en la arquitectura, la estructura, los detalles de esta supercomputadora que desarrolló AMD, nos ha servido mucho porque, por ejemplo, la transferencia de memoria que se multiplicó por 8, me posibilitó desarrollar un código para estudiar vacíos cósmicos que antes no podía calcular. Durante la pandemia que Serafín estaba siendo ensamblada recién, la gente de ciencias químicas usó otros equipos que teníamos para simular cómo fármacos ya aprobados interactuaban con modelos del virus del COVID que había en ese momento. Y eso fue espectacular porque todos de manera solidaria aportamos recursos para encontrar candidatos a ser probados en laboratorio, como modo de aportar en ese momento crítico. Pero, de todos modos, siguen siendo clusters chicos si se compara con los recursos disponibles en otros centros de investigación. Entonces es una sensación agridulce, siempre uno quiere más”, comenta Dante.
Y este querer siempre más puede refrendarse con números, como una necesidad “Hace un tiempo hicimos una convocatoria y les pedimos a los grupos de investigación de la UNC que presenten proyectos para los cuales necesitarían poder de supercómputo. Lo comparamos con la capacidad que tenemos en el CCAD y la cuenta nos dió que Córdoba necesita un factor 10, es decir que necesitamos 10 Serafín para poder cubrirla necesidad de computo que hay en nuestra Universidad. Por eso Serafín está ocupada al 100%, 24/7”, asegura Paz.

HPC y desarrollo

Conformar un cluster implica desarrollo científico, tecnológico, industrial y también creación de una fuente de trabajo que insume y también forma recursos humanos de altísimas capacidades técnicas. “El HPC es transversal, estás ayudado a toda la ciencia, a toda la ingeniería aplicada, de optimización de procesos, la verdad es que es super necesario”, asevera Dente Paz.
Y sus beneficios van más allá aún, redundando en la tan mentada soberanía. Tal como desarrolló Federico durante la charla, tener capacidad de cómputo permite no sólo hacer preguntas, sino obtener respuestas a nuestros propios problemas, sin esperar a que alguien en algún lugar del mundo se haga una pregunta similar y nos dé una respuesta que de todos modos no estará adecuada a nuestras necesidades “Tenemos que tener la posibilidad de responder nuestras propias preguntas y no tener que estar esperando a que salga algún artículo en algún lugar del mundo que nosotros podamos modificarlo para poderlo aplicar”, asevera el investigador.

Y esto que parece tan abstracto, tiene a veces demostraciones muy concretas y palpables. En ese sentido, Dante Paz comentó que usar equipos extranjeros, por ejemplo uno muy grande que instaló Estados Unidos en Chile para un proyecto de astronomía, implica que sólo está disponible para ciertos usos siempre asociados a ese proyecto pero, además, significa que todo lo que se ingrese a esa computadora puede ser utilizado por el país que lo financia. “Cuando vos accedés a este equipo el primer mensaje que te aparece es: ‘Este equipo es propiedad de la Agencia de Energía de Estados Unidos, por lo tanto todos los datos o software que usted tenga en este lugar va a ser escrutado por cualquier Agencia Gubernamental de los Estados Unidos. Y todo lo que usted produzca acá, tenga en cuenta que es propiedad de los Estados Unidos’. Así comienza, cuando vos te logueas. Es como que de pronto te pega la soberanía en la cara; San Martín, Belgrano, los jujeños con su éxodo, todo eso para qué si seguimos siendo un país colonizado en ese sentido. Es triste”, concluyó Paz


Para escuchar el programa completo (que está buenísimo) pueden encontrarlo en spotify o en podacastadict 

El CCAD en una competencia Internacional

Un equipo integrado por miembros del CCAD, estudiantes de la Facultad de Matemática, Astronomía y Física (FaMAF, UNC) y de la Facultad de Ingeniería (UCC), fue admitido para formar parte de la IndySCC.

La IndySCC es un evento que comparte los objetivos del SCC pero con énfasis en educación e inclusión, dirigido especialmente para equipos con poca experiencia. Los equipos compiten de manera remota utilizando un hardware provisto por la industria de HPC, a través de una experiencia educativa. Una vez finalizada esta primera etapa, comienza un concurso de 48 hs, durante la semana previa al SC, como culminación de la experiencia y el conocimiento adquirido por los equipos en los meses previos.

Supercomputing (SC) es la Conferencia y Exhibición de HPC más grande del mundo. Este año se hace en Denver, EEUU. SCC es la competencia más importante que se realiza dentro de SC y son una docena de equipos que construyen un cluster y tratan de correr aplicaciones lo más eficientemente posible. Los grandes fabricantes los esponsorean y les dan los equipos. Están una semana trabajando en eso. La IndySCC es el primer paso para poder acceder a ese mundo, por eso es tan importante para nosotros que nos hayan aceptado como participantes”, explica Nicolás Wolovick.

Desde el CCAD postularon a un equipo integrado por el coach Marcos Mazzini (CPA del CCAD), Nicolás Wolovick (director del CCAD), Lucia Martinez Gavier (estudiante de FaMAF-UNC), Marcos Tolcachir (estudiante de FaMAF-UNC), Alejandro Ismael Silva (CPA del CCAD y estudiante de FaMAF-UNC), Luigi Finetti (estudiante de FaMAF-UNC), Juan Ignacio Folco (estudiante de la Facultad de Ingeniería-UCC) y Lara Kurtz (estudiante de FaMAF-UNC).

Entre los puntos a favor que determinaron su aceptación dentro de la IndySCC, los evaluadores resaltaron la capacidad para aprovechar de manera creativa y eficiente los recursos, la diversidad de conformación del equipo, la inclusión de mujeres a pesar de la escasa representación femenina en STEM en el país y la incorporación de personas con gran expertise.

“Estamos muy contentos con esta oportunidad porque, sin dudas, será una experiencia muy enriquecedora en la que podremos aprender y adquirir nuevas capacidades pero también ganar visibilidad en nuevos espacios y crear vínculos con colegas de todo el mundo”, concluye Wolovick.

Acelerando un código de simulación de crecimiento de tumores

Jerónimo Fotinós y su director Lucas Barberis, están trabajando sobre simulaciones de crecimiento de tumores cancerígenos in vitro. Dentro de su doctorado Jerónimo pasó el código de 2D a 3D y se encontró con que necesitaba una gran cantidad de cómputo. Carlos Bederián, CPA Principal del CCAD, aportó su experiencia y aceleró el código por 39 veces.

Recientemente Carlos Bederián  aportó mejoras al código Python de Jerónimo Fotinós, estudiante del Doctorado en Física de FaMAF-UNC, dirigido por Lucas Barberis. La aceleración de código que logró el CPA de CONICET fué brutal: logró mutiplicarlo por 39. Es por eso que entrevistamos a Jerónimo, para que nos cuente de qué se trató y qué habilita esta aceleración

Nicolás Wolovick: ¿Qué hace el código?
Jerónimo Fotinós
: El programa simula crecimiento de tumores cancerígenos in vitro. En particular, modelamos computacionalmente ensayos de tumoresferas: un modelo biológico para el estudio del cáncer, enfocado en las características y respuesta a terapias de las Células Madre Cancerosas (CMC).
Concretamente, el programa simula la reproducción y proliferación de células en un ensayo de tumoresferas con dos especies celulares: células madre y células diferenciadas. El primer objetivo es obtener la distribución espacial de las primeras, contrastarla con datos experimentales y modelarlas matemáticamente.

NW: ¿Por qué es importante?
JF: El programa nos permite evaluar si existe un umbral para la capacidad de autoreplicación de las CMC, tal que, por encima de este valor, logren proliferar en la periferia del tumor. Esto puede relacionarse con una transición de percolación en el modelo como sugieren los resultados preliminares. Que una CMC -que suelen ser muchas menos que sus contrapartes diferenciadas- consiga o no ubicarse y mantenerse en la periferia del tumor, tiene fuertes implicancias en la resistencia a las quimio/radioterapias como así también en el entendimiento del fenómeno de metástasis.

NW: ¿Ya tienen publicaciones?
JF: Todavía no hay publicaciones al respecto, empecé a trabajar en esto en abril. Sí hay una publicación de Lucas al respecto, pero no es con este código (él usó un código en NetLogo) para el caso 2D que no es biológicamente relevante pero sirvió para organizar lo que hay que hacer. El código que optimizó Carlos es el que desarrollé yo, lo denominé tumorsphere_culture, permite extender el problema a 3D -como ocurre con las tumoresferas experimentales- y realizar cálculos que posibilitan describir diferentes posiblidades de la progresión tumoral.

NW: ¿Cómo llegaron a contactarse con Carlos? Me comentaron que les quedaban cortos los 2 días de tiempo límite en Serafín.
JF: Yo le consulté a Carlos sobre la posibilidad de correr durante más tiempo porque había escuchado que a veces en las vacaciones de invierno te dejaban, y él me habló del uso exclusivo a raíz de eso. Considerando que para realizar algunas aproximaciones matemáticas útiles, es necesario llegar a tener millones de células que representan unos 100 días de cultivo, y que el tiempo para calcuar un día crece exponencialmente, vamos a requerir a futuro más recursos. Además, esto es sólo la punta del témpano. Posteriormente el modelo deberá incluir otros tipos celulares, interacción específica con el medio, mecanismos internos de las células, entre otros, que van a aumentar drásticamente el tiempo de cálculo, incluso para sistemas relativamente pequeños.

NW: ¿Qué podrán hacer con el 39x que logró Bederián?
JF: Sin esa aceleración no era posible hacer corridas útiles en menos de dos días, así que antes que nada, la aceleración posibilitó la ejecución en los clusters. En segundo lugar, esta aceleración nos permite correr un número mayor de simulaciones con diferentes parámetros e incluir mayor cantidad de realizaciones de un mismo experimento para contar con valores estadísticos confiables. Esto último es central a la hora de medir los observables que requerimos para el modelado matemático.

NW: ¿Entendiste la lógica de los cambios que hizo Carlos? ¿Vas a poder aplicar estas estrategias para que tu código siga performante?
JF: Si, los entiendo y casi todos son cosas que incorporé desde el momento en que las vi en sus commits, porque era una cuestión de no saber que era más rápido hacer las cosas de ese modo. La única cosa de la que no estoy seguro es si las anotaciones de tipo (mediante typing) cambian la performance. Yo tenía entendido que no, pero quizás eso cambió ya. Pero para responder tu pregunta, sí, incluso en los cambios que estoy haciendo ahora, estoy pudiendo aplicar estas estrategias para que el código siga performante. En particular, el tema de almacenar vectores en una única matriz y que los objetos no guarden vectores, sino su índice en la matriz.

NW: ¿Qué desafíos quedan aún en el código?
JF: El desafío central que queda es que todavía requerimos una gran cantidad memoria. En el estado actual del código, no es posible aprovechar todos los cores de un nodo, porque la memoria del mismo se agota antes de terminar la simulación. En este momento estoy haciendo las modificaciones que creo necesarias para solucionar eso. Un segundo desafío sigue siendo la aceleración. Si bien la mejora respecto al original es enorme, todavía no permite correr 60 pasos, que representan 60 días experimentales, en 2 días. Este es el número mínimo de pasos que necesitamos simular de acuerdo a nuestras predicciones  (y muy posiblementa tengamos que simular más allá). Finalmente, como mencioné antes, a futuro necesitaremos incluir otros fenómenos para acercar más la simulación a la realidad (e.g., difusión) como así también mejorar el modo de registrar la información medida.

NW: Muchas gracias
JF: A ustedes y esperamos seguir avanzando juntos en este código.

Por Nicolás Wolovick, director del CCAD

Taller Usando Jupyter en CCAD

El miércoles 5 de julio, a las 10 h, el CCAD brindará un Taller sobre el uso de Jupyter: Julia, Python, R

Oscar Reula y Juan Perotti, ambos miembros del CCAD, brindarán el Taller Usando Jupyter en CCAD, el día miércoles 5 de julio a las 10 h, con modalidad mixta. Se dictará de manera presencial en el Laboratorio 28 de FaMAF y de manera remota usando el siguiente link https://meet.google.com/qzc-kctx-zos

Jupyter hace referencia a los lenguajes Julia, Python, R. Esta es la tecnología de notebooks para computación interactiva que se está empleado desde el CCAD, con el proyecto 2i2c y con el nuevo nodo de Serafín.

 

El CCAD tiene nuevo personal de apoyo

Alejandro Silva se incorporó al Centro de Computación de alto Desempeño de la UNC, como Personal de Apoyo a la Investigación (CPA) del CONICET.

 

Alejandro Silva es Analista en Computación y continua sus estudios para recibirse de Licenciado en Ciencias de la Computación en FAMAF (UNC). Se define como una persona inquieta y que siempre busca algo nuevo que hacer y aprender. Además, le gusta trabajar en proyectos que tengan repercusión en la sociedad. Desde el 1 de junio forma parte del CCAD.
La llegada al CCAD del CPA-CONICET Alejandro Silva es el esfuerzo de muchas y muchos actores. En abril de 2021, Nicolás Andruskiewitsch y Oscar Reula, el primero ex-director del CIEM y el segundo el ex-director del CCAD, acuerdan pedir un cargo CPA para el CIEM con lugar de trabajo en el CCAD-UNC.
El llamado a selección tuvo dos instancias ya que la primera quedó desierta. En julio de 2022, se elabora un orden de mérito y dos candidatos pasan el puntaje de corte, entre ellos Alejandro Silva.
El proceso continuó y gracias al apoyo de la Directora del CCT Córdoba, María Angélica Perillo, el Coordinador de la UAT, José Caballero, y el nuevo Director del CIEM, Jorge Lauret. El día 14 de febrero de 2023 se terminó el proceso administrativo.
En marzo el candidato que quedó primero en el orden de mérito no acepta la propuesta  por tener una más interesante económicamente, y se pasa al segundo en el orden de mérito, el Analista Alejandro Ismael Silva, que acepta y en mayo de 2023 se termina el proceso de alta.
Alejandro empezará a cobrar una Beca de Estadía Corta de parte del CONICET para que la espera del proceso de Alta Definitiva concluya.

«Este fue un proceso largo, de un poco más de dos años, pero que valió la espera. Alejandro, aun teniendo oportunidades en un mercado laboral global cobrando en dólares, eligió intentar trabajar con nosotros. Esperamos estar a la altura de sus expectativas», expresó Nicolás Wolovick, director del CCAD. Los CPA Carlos Bederián y Marcos Mazzini por su parte, lo necesitan casi con desesperación. La cantidad de trabajo que generan 4 clusters y más de 150 usuarios activos, muestra la gran capacidad técnica y profesionalismo que asombran a propios y extraños.

Serafín: 100.000 trabajos en menos de dos años

A 22 meses del inicio de operaciones del cluster más grande del CCAD, realizamos un nuevo balance, con saldo positivo.

 A menos de dos años desde que Serafín comenzó a operar en el Centro de Computación de Alto Desempeño, llegamos a los 100.000 trabajos ejecutados. Esto pone en evidencia, una vez más, que los recursos están siendo explotados al máximo de su capacidad.
Desde agosto de 2021 hasta la fecha, el mayor cluster del CCAD ejecutó un total de 44.580.163 horas-core, con un valor de U$S 0.01 cada una. Es decir que en estos 22 meses Serafín produjo U$S 445.801,63, superando su costo de compra, que fué de U$S 386.000. Si se tiene en cuenta que el tiempo de vida útil promedio de estos equipos es de 5 años, Serafín tendrá tiempo de sobra para generar beneficios que superen la inversión inicial y sus costos de funcionamiento. Por otra parte, el consumo energético aproximado fue de 348.282 KWh.

Finalmente, cabe destacar que, con el objetivo de que el costo de operación no recaiga íntegramente sobre las personas usuarias, hay muchas instituciones que aportan de diversas maneras para sostener el pleno funcionamiento del cluster, principalmente, la Universidad Nacional de Córdoba. Esto permite que puedan producirse una gran cantidad de publicaciones de excelencia, que de otro modo serían inaccesibles para muchos grupos; constituyendosé en una herramienta invaluable para la investigación científica. Además tiene la capacidad de generar colaboraciones con empresas de renombre, como Y-TEC, a través de convenios y prestación de servicios arancelados.

CCAD Q&A ¿Cómo hago para …?

Tuvo lugar el primer encuentro Q&A de usurios/as con el objetivo de obtener mayor provecho de los recursos que brinda el Centro de Computación de Alto Desempeño de la UNC.

El pasado 16 de mayo se realizó un encuentro virtual donde power-users del CCAD ayudaron a resolver dudas de otros/as usuarios/as, de la más diversa índole, para poder sacar mejor provecho de nuestros recursos. A través del intercambio de preguntas y respuestas, la comunidad del CCAD -que suma un promedio de tres usurios/as por semana- continua fortaleciéndose y acrecentando sus capacidades.
Los/as power users que generosamente estuvieron a cargo del Q&A fueron: Ayelén Crespi del CETMIC (UNLP-CIC-CONICET), Sergio Rodríguez de la Facultad de Agronomía y Agroindustrias (UNSE), Ignacio José Chevallier-Boutell de FAMAF (UNC) e IFEG (CONICET-UNC) e Ignacio Scarinci de FAMAF (UNC), IFEG (CONICET-UNC) y LIIFAMIR.
Asistieron al encuentro virtual alrededor de 50 personas que pudieron evacuar dudas de todo tipo, siguiendo la consigna de la convocatoria: “Menú abierto, no hay nada que no se pueda preguntar, desde ¿Cómo me conecto? hasta ¿Cómo corro un container de Singularity para un workload de ML?”.

Serafín suma un Nodo de Cómputo Interactivo

Serafín suma un nuevo nodo de Cómputo Interactivo. Este permitirá a las y los usuarios del CCAD, con la misma cuenta, realizar limpieza, análisis y visualización de datos, asi como cómputo liviano, utilizando las tecnologías de environments y Notebooks.

El rack central de Serafín tiene un nuevo nodo con características peculiares:

  • CPU: AMD Ryzen Threadripper PRO 3975WX de 32 núcleos Zen2, 280W de potencia máxima y 120 lanes PCIe 4.0 libres.
  • 8 canales a memoria RAM, conteniendo módulos de 16 GiB DDR4-3200, 128 GiB en total.
  • Placa Infiniband FDR (56 Gbps) NVIDIA Mellanox ConnectX-3.

Esta potente workstation está conectada al sistema de archivos de Serafín y permite realizar tareas interactivas relacionadas con limpieza, administración, análisis, inferencia, visualización y cómputo liviano.

Con este nodo completamos el flujo de trabajo que permite, por un lado, realizar simulaciones a gran escala en Serafín y, luego, analizarlas sin tener que traer a la computadora local los enormes conjuntos de datos que se generan.
Gracias a que está conectado directamente al BeeGFS de Serafín por Infiniband, se obtiene un ancho de banda de 1.6 GiB/s para leer información y muchos núcleos Zen2 para procesarla. La capacidad de ingestión y procesamiento de datos del nuevo nodo es un orden de magnitud superior a una computadora personal.

Este nodo de cómputo interactivo viene a cubrir una demanda creciente entre las y los usuarios del CCAD que además de cómputo pesado al estilo del HPC tradicional, también necesitan de cómputo interactivo para hacer su ciencia. A través de environments como MicroMamba, es posible desplegar la potencia de los Jupyter Notebooks, utilizando lenguajes de backend como Python, R o Julia. También admite el uso de herramientas modernas de desarrollo como VSCode y solo se requiere tener un login en el CCAD.

Próximamente anunciaremos actividades de capacitación para sacar provecho a esta nueva capacidad del CCAD.

Nicolás Wolovick
Director del CCAD-UNC
(para Juan)

Todo el poder de AMD CDNA2 en el CCAD

AMD Latinoamérica reconoce el liderazgo y la capacidad técnica del CCAD donando dos aceleradoras Instinct MI210, con tecnología CDNA2, la misma que usa Frontier, la supercomputadora #1 del mundo.

La primera de las dos aceleradoras MI210 llegó al CCAD. Este monstruo PCIe 4.0 16x consume 300W y tiene unas especificaciones a la altura de su consumo:

  • 64 GiB de DRAM HBM2e con un ancho de banda pico de 1.63 TiB/s, es decir tarda 39ms en leer toda su memoria.
  • 45.3 TFLOPS tanto en precisión simple como en precisión doble.
  • Soporte para un conector superior Infinity Fabric de hasta 4 GPUs para máxima velocidad de comunicación inter-placa.

Esta placa es comparable con una NVIDIA A100: mismo TDP, misma tecnología de memoria, mismo bus de conexión con la CPU. La única diferencia sustancial es que la MI210 dobla a la A100 en desempeño de punto flotante de doble precisión.

El ecosistema ROCm permite aprovechar este recurso con compiladores, bibliotecas, debuggers y herramientas de medición de desempeño.

Esta placa estará en periodo de pruebas y cuando llegue la segunda, ambas se integrarán a MendietaF2 para ofrecer mayor diversidad en la potencia de cómputo. En particular se podrán correr workloads de ML y MD que necesiten de mayor cantidad de RAM que los 24 GiB que ofrecen las A30.

Agradecemos a Juan Moscoso y a Hernán Sánchez que a través de Multitech, realizaron esta donación tan valiosa para el CCAD.

Podés ver un video en el que Nicolás Wolovick, director del CCAD, cuenta de qué se trata en Facebook, Instagram o Twitter

El CCAD participará en un proyecto que busca crear un servicio colaborativo de cómputo para América Latina y África

A través del financiamiento otorgado por la Chan Zuckerberg Initiative (CZI), un consorcio conformado por diversas organizaciones del mundo, busca fundar un servicio colaborativo e interactivo que facilite el acceso a la infraestructura en la nube para las investigaciones en ciencias biomédicas de la región.


Al igual que muchas otras disciplinas, las ciencias biomédicas están experimentando una rápida expansión en relación al alcance y volumen de los datos que deben utilizarse para responder a los diversos problemas de investigación que se presentan. Al mismo tiempo, se hace cada vez más necesaria -y fructífera- la colaboración entre los grupos de investigación, más allá de los límites institucionales y geográficos. La capacidad de compartir información permite replicar, completar y modificar los diversos ensayos necesarios para el avance del conocimiento, redundando en una administración más racional de los recursos. Además, por supuesto, favorece el debate y el intercambio de ideas.
Con este objetivo, desde hace ya algunos años, se vienen desarrollando una multiplicidad de OSCS (Open Science Cloud Services o, en castellano, Servicios de Ciencia Abierta en la Nube) que, a diferencia de propuestas similares de corte comercial, se basa en los principios de la ciencia abierta y de los desarrollos open-source.

Este tipo de iniciativas son especialmente relevantes para el desarrollo de las investigaciones que se llevan a cabo desde regiones periféricas que, sin embargo, como es de esperarse, también tienen menores posibilidades de acceder a la infraestructura necesaria para participar en la gran comunidad de intercambio en la nube. Justamente, ese es el punto del programa de financiamiento lanzado por CZI: “La representación de diferentes culturas y experiencias de vida llevan a mejores resultados de investigación para la comunidad científica. A pesar de la creciente evidencia de que una participación representativa mejora la calidad científica, el campo permanece dominado principalmente por participantes de sectores demográficos relativamente estrechos, y existen aún barreras significativas para las personas que investigan fuera de Norte América y Europa. En el mismo sentido, los esfuerzos para reclutar, sostener y construir el liderazgo de colaboradores científicos, a menudo no incluyen a investigadores de comunidades subrepresentadas.
Debido a que la ciencia abierta y los abordajes computacionales relacionados tienen un alcance inherentemente global y se benefician de una amplia representación geográfica y demográfica, el programa de Ciencia Abierta de CZI busca potenciar las habilidades de las poblaciones subrepresentadas para participar y liderar las investigaciones computacionales en biología, a través del financiamiento de iniciativas que desarrollen herramientas, plataformas y capacidades aplicables a investigaciones biomédicas.” (Ver más)
Así fue como se creó un programa tendiente a favorecer el desarrollo de un servicio colaborativo e interactivo que facilite el acceso a la infraestructura en la nube para las investigaciones en ciencias biomédicas de América Latina y África. La iniciativa es llevada adelante por : 2i2c, The Carpentries, The Center for Scientific Collaboration and Community Engagement (CSCCE), Invest in Open Infrastructure (IOI), MetaDocencia, and Open Life Science (OLS). “Nosotros vamos a estar trabajando con la gente de 2i2c, para hacer el despliegue de su infraestructura para LatAm y África, en el CCAD”, expresó Nicolás Wolovick, director del Centro de Computación de Alto Desempeño de la UNC.

2i2c es una organización sin fines de lucro que desarrolla y maneja OSCS para computación interactiva, tales como Jupyter Project y el ecosistema Scientific Python a partir de un modelo de servicios que sigue los principios de Ciencia Abierta y brinda a su comunidad el derecho de replicar su infraestructura. “Esta cooperación es muy importante porque marca una nueva pata que tiene el CCAD: brindar servicios de Computación Interactiva a través de Jupyter Notebooks, además de alojar los servidores que formarán parte de esta gran nube colaborativa”, concluyó Wolovick

* Crédito de las fotos: CZI