Más GPUs para MendietaF2

Mendieta Fase 2, es la supercomputadora más vieja y más nueva del CCAD. Utilizando equipos end-of-life como base, los remozamos con placas GPU NVIDIA Ampere. Pasamos de 14 placas funcionando a 24 y en breve a 26.

7 A30, las 4 restantes ya estaban en los servers.

Las 11 placas nuevas para MendietaF2 que costaron más de 38.000 dólares estadounidenses, surgen del aporte de tres partes:

En este momento MendietaF2 ya tiene 24 placas NVIDIA A30 funcionando. Cuando terminemos de instalar las 2 restantes, completaremos una máquina con 26 GPUs totalizando 135 TFLOPS de doble precisión y 268 TFLOPS para precisión simple, el cluster GPU más grande que el CCAD haya tenido. De las 15 placas anteriores, 11 fueron compradas con fondos del PFI 2021 y 4 con fondos propios del CCAD.

Los workloads de Dinámica Molecular y de Aprendizaje Automático son los grandes beneficiados por esta máquina, que es en definitiva, la concreción de un proyecto planteado en el 2020.

Llevar adelante todo el proceso de compra e importación nos llevó 133 días y su instalación física y lógica, les llevó a Marcos Mazzini y a Marcos Tolcachir una mañana. Eso habla por un lado de la eficiencia de nuestros técnicos, y todo el trabajo previo que hizo Carlos Bederián sobre el stack de software, y por el otro lado habla de la cantidad de procesos administrativos necesarios para realizar una compra al exterior.

Marcos Mazzini y Marcos Tolcachir, colocando las dos A30 por nodo y cambiando la pasta térmica de los dos E5-2680v2.

Agradecemos a toda una cadena de apoyo que hizo posible que hoy las placas estuvieran produciendo ciencia. A SIASA LLC que nos vendió las placas en particular a Andrés S. Marcone, Sonia Alonso y Astrid Valarche; a Adriana LaGattina nuestra oficial de cuenta FedEx que hizo el pickup en EEUU; a Luciana Beladelli de la UVT de CEPROCOR que administra el PFI 2021; a Marcela Giomi y Mario Farías de ComEx-UNC encargados de ROECYT y del pago al exterior, y finalmente a Gonzalo Jaimez y Laura Grassetti del Área Económico Financiera de la PSI-UNC que llevan adelante las cuentas.

 

 

por: Nicolás Wolovick, Director del CCAD-UNC

Técnicos del CCAD en SC22 Digital Experience

Supercomputing es la conferencia #1 del mundo en temas de HPC. Se desarrolló esta semana en Dallas, EEUU. Aunque no teníamos presupuesto para que nuestros técnicos estuvieran allá, hicimos uso de la modalidad remota a fin de que ellos puedan desarrollarse técnicamente y contribuir a la comunidad.

Los CPA Profesionales del CCAD, el Lic. Carlos Bederián y el Lic. Marcos Mazzini participaron de Supercomputing que se desarrolló durante la semana.

A través de su modalidad Digital Experience Carlos y Marcos pudieron acceder a charlas, workshops, presentaciones de trabajos científicos y a una montaña de información para que ambos se mantengan actualizados sobre toda la problemática del HPC.

Este año no sólo invertimos en formación para el personal técnico, sino también en equipamiento, herramientas de trabajo y medidas de seguridad, para que estén en las mejores condiciones para realizar su trabajo. Sabemos que sin ellos, la comunidad podría computar poco o nada. Los cuidamos, son un recurso muy valioso, pero escaso.

Agradecemos especialmente a la Cra. Laura Grassetti y al Cr. Gonzalo Jaimez que hicieron lo imposible y finalmente lograron realizar el pago de la inscripción.

 

por: Nicolás Wolovick, Director del CCAD-UNC

Serafín como caso de estudio mundial

La empresa fabricante de procesadores AMD, tomó a Serafín como un ejemplo sobresaliente a nivel mundial del uso de su tecnología.

La historia de la computación de alto desempeño en la Universidad Nacional de Córdoba, arrancó en 2011 con la llegada de la supercomputadora Cristina. Y desde entonces hasta el presente, con pequeños pasos pero a marcha firme, no dejó de avanzar. En 2021 se inauguraron las instalaciones de Data Center y, casi en simultáneo, el CCAD estrenó su más preciado cluster: Serafín; un equipo marca Supermicro con procesadores AMD, entre 2 y 3 veces más rápido que sus antecesores. Hoy, es modelo y caso de estudio a nivel mundial, gracias al seguimiento de AMD.

Juan Moscoso – AMD

“A partir del acompañamiento de Diego Lavalle, representante oficial de Supermicro en Argentina, y Juan Moscoso de AMD LatAm, pudimos adquirir un 50% más de procesadores por el mismo presupuesto. De hecho, si multiplicas los 120 procesadores AMD EPYC por lo que vale uno en el mercado, el costo, sólo en procesadores, supera al de todo el cluster. Hicimos una compra escandalosamente buena”, asegura Nicolás Wolovick, director del CCAD.

Diego Lavalle – Supermicro

Por su parte, la empresa AMD, a través de diferentes casos de estudio, muestra ejemplos sobresalientes a nivel mundial del uso de su tecnología y, recientemente, Serafín fue incluido dentro de este selecto grupo. “Estamos muy contentos de contar con este caso de referencia, un proyecto referente para toda la región que, de hecho, es el primero en ser publicado en nuestro sitio de casos de estudio a nivel mundial. Tenemos un fuerte compromiso con esta increíble institución y su equipo profesional y aprovechamos esta instancia para dejarla posicionada a la par de otras grandes instituciones reconocidas mundialmente, las cuales también han confiado en nuestra tecnología”, expresa Juan Moscoso en nombre de AMD.

“La importancia para nosotros es que una computadora chica, realmente chica, está ahí. Porque gracias a ella pegamos un salto enorme en capacidad de cálculo y por lo tanto mejoramos nuestras capacidades de producir ciencia. Está siendo utilizada al 100% de su capacidad desde septiembre de 2021 y usando esos recursos se pudieron producir muchas publicaciones de relevancia”, comenta Wolovick. “Agradecemos enormemente esa confianza que han depositado en nuestra marca -agrega Moscoso- y esperamos poder seguir creciendo juntos, poniendo a disposición de toda la comunidad mayores posibilidades para desarrollar investigación de clase mundial desde este lado del continente”. 

“Nuestro Centro brinda servicio a muchos grupos de investigación, de diversas disciplinas y con diferentes necesidades. Tratamos de cubrir todos los flancos y, para eso, necesitamos hacer rendir nuestro presupuesto al máximo, buscando la mejor relación precio – performance posible. En este caso, los procesadores AMD EPYC, además de un precio altamente favorable, ofrecen el balance entre potencia y memoria que estábamos buscando”, explica Carlos Bederián, arquitecto de los clusters del  CCAD.

“Nuestros usuarios están extremadamente felices -cuenta Wolovick-. Serafín es hoy el cluster de preferencia de nuestro Centro, gracias a su velocidad. Hasta ahora se publicaron 38 trabajos científicos y las proyecciones indican que para fin de año vamos a rondar los 50 papers para 2022. Es un claro indicio de que estamos ofreciendo una gran potencia de cómputo a la comunidad científica local”.

“Estamos orgullosos de ser parte de este camino y esperamos seguir colaborando con el CCAD. Así como con otras universidades y centros estudio de Argentina y la región para tener más casos como este de la UNC, desplegado por todos los países de Sudamérica”, concluye Moscoso.

[Documento PDF]

Limpieza profunda del UNC Data Center

Se realizó una limpieza profunda en las instalaciones del CCAD para prevenir un eventual daño en los equipos . Para ello se contrataron los servicios de la empresa TA Telecomunicaciones.

Acicalando a Serafín.

Hace un tiempo que con el personal de la PSI-UNC y los miembros y técnicos del CCAD veíamos con preocupación la tierra que quedó luego de algunas terminaciones finales en el UNC Data Center. Esa tierra eventualmente vuela y pasa por los cientos de pequeñas turbinas que tienen cada uno de los servidores de la PSI y el CCAD. Nos preguntábamos ¿Se limpian los Data Centers? ¿Quién limpia los Data Centers?

La respuesta a la primera pregunta era afirmativa, pero la segunda no tenía una respuesta clara. De las consultas que pudimos hacer a otros centros de datos, el personal mismo hacía la limpieza con sus máquinas y productos. Luego de contactar a TA Telecomunicaciones que nos visitó en abril de este año y saber que ellos se encargan del mantenimiento general del data center de EPEC luego de hacer su instalación, obtuvimos un presupuesto y realizaron la tarea.

Un barrido completo del piso técnico.

Daniel Toranzo y Javier Toranzo, bajo la supervisión de los ingenieros Gabriel Balegno y Gerardo Piermattei, trabajaron una jornada y media para realizar una limpieza profunda de todo el DC. Esta incluyó el piso técnico donde había mayor concentración de tierra y algunos restos de materiales. El listado de tareas que realizaron fué:

  • Limpieza de piso técnico y aspirado bajo piso.
  • Limpieza exterior de tuberías, travesaños y puertas.
  • Limpieza de placas de piso.
  • Limpieza de placas perforadas y rejillas.
  • Limpieza exterior de servidores y equipamiento de red.
Luego del trabajo de la empresa, el UNC Data Center quedó como nuevo, o en cero, en lo que respecta a limpieza.

Se terminó aspirando todo el piso técnico inferior.

 

por Nicolás Wolovick, Director del CCAD-UNC

Nuevo NAS para el CCT-Rosario

El CCT-Rosario adquirió a la firma SIASA mediante financiamiento del SNCAD y la contrapartida de la UNR, equipamiento para mejorar las prestaciones de almacenamientos de sus clusters de HPC. Esté reemplazará y actualizará el anterior NAS que tenían operativo desde 2008 cuya capacidad era 2.7 TiB efectivos y que ya mostraba alarmas de todo tipo.

  • Chasis: Marca Supermicro
  • Mother: Supermicro H12SSL-i
  • Procesador: AMD EPYC 7513 (Zen3 cores) de 32 núcleos, con 128 GiB DDR4.
  • Discos: 6 x 12TiB SAS3 + 2 x SSD 960GiB.
  • Fuente: 2 x 960W.
La configuración del nuevo almacenamiento les permite aumentar la capacidad efectiva a 44 TiB.
En cuanto al software se utilizó TrueNAS@13.0-U2 agrupando los discos en un RAID 6 (4 discos de datos, 2 discos de paridad) con posibilidad de falla de hasta dos discos. El sistema de archivos subyacente es ZFS.
Agradecemos a Javier Rodríguez Peña y a Fabio Busnengo por la información y las fotografías.
por: Nicolás Wolovick, Director del CCAD

En los medios

 

Nuevos representantes del CCAD en el Consejo Asesor del SNCAD

Recientemente, dos integrantes del CCAD desde su fundación, Manuel Merchán y Dante Paz, asumieron como representantes del Centro en el Consejo Asesor del Sistema Nacional de Computación de Alto Desempeño (SNCAD). Con tal motivo, Dante Paz hace una breve reseña de lo que este nombramiento implica.

«El Sistema Nacional de computación de alto desempeño SNCAD es una red Nacional de centros de supercomputación del país que busca promover y coordinar la computación de alto desempeño (HPC) a nivel Nacional. El CCAD forma parte del SNCAD desde su fundación como uno de los mayores centros integrales de esta red.

Siendo en múltiples ocasiones y durante largos intervalos de tiempo, desde la creación del SNCAD, el centro con mayor poder de cómputo y mayor crecimiento del país (en equipamientos y comunidad de usuarios), resultaba inexplicable que hasta el momento no tuviera representación directa en el SNCAD.

Anteriormente la Dra. Patricia Paredes, quien fuera parte del directorio del CCAD y actualmente forma parte de su Consejo Científico, integró el Consejo Asesor del SNCAD pero como representante del CIN, y no del CCAD. No obstante, a través de la Dra. Paredes, el CCAD realizó varios aportes al SNCAD, como fue en su momento el proyecto CFAS del cual se tomaron varios de sus lineamientos para el diseño del plan estratégico del SNCAD.

El Consejo Asesor es el lugar donde se definen y coordinan los programas del SNCAD, y Asesora al MINCYT y al CICyT sobre políticas de HPC. De ese Consejo depende la evaluación e incorporación de equipos de cómputo, así como la evaluación del financiamiento otorgado para computación -por ejemplo, a través de programas como el equipar ciencia del MINCYT- entre otros.

Así mismo de este Consejo Asesor dependerá la evaluación y la asignación de tiempo de cómputo en el centro Nacional que se prevé crear en el data center del Servicio Meteorológico Nacional.

Por todo esto resulta muy importante la participación del CCAD en el Consejo Asesor, teniendo un representante que lleve la experiencia que tiene nuestro centro y participe en la asesoría y toma de decisiones. Para mí es un orgullo y una responsabilidad muy grande representar al CCAD en el Consejo y mi compromiso es brindar el punto de vista y la experiencia que tiene el equipo de trabajo del CCAD, representando lo más fielmente posible la visión que aportamos desde la UNC al Sistema Nacional.»

CIMEC potencia su cluster Pirayú

Es un triunfo. Luego de obtener en 2017, el Préstamo BID AR/L 3497 Programa de Modernización de Equipamiento PME 2015-0036 con Mario Storti como Investigador Responsable, la suma de $16,910,000 pudo ser ejecutada y convertida en cómputo para atender las necesidades del CIMEC-CONICET y de toda la comunidad de Ciencia y Técnica del país.

Es un triunfo, porque a pesar de todas las dificultades del proceso, las sucesivas devaluaciones, Mario y su equipo no bajaron los brazos y el cómputo está. Tal vez eso sea lo más importante.

El equipamiento consta de 44 nodos con:

  • 2 x Intel Xeon Gold 6126, arquitectura Skylake, 6 canales de memoria.
  • 64 GiB RAM DDR4-2666 MT/s.
  • Infiniband FDR-56.

Teniendo en cuenta que cada pastilla devenga 652.8 GFLOPS, el conjunto de 88 Xeon Gold 6126 devenga una potencia pico de 57.4 TFLOPS. Esto es duplicar la potencia de Pirayú original que tenía 26 TFLOPS.

Las buenas noticias no terminan ahí, ya que gracias al PICT-E 2018-0271 de Mario Storti (CIMEC) – Paola Quaino (IQAL), se compraron 11 nodos más de marca AMD, con las siguientes características:

  • 2 x AMD EPYC 7401, architectura Zen1 (Naples), 8 canales de memoria.
  • 64 GiB DDR4-2666 MT/s, 128 GiB DDR4-2666 MT/s.
  • 1 GigE.

Con un ancho de banda a memoria más interesante, aproximadamente 150 GiB/s por procesador, el conjunto devenga una potencia pico de 8.44 TFLOPS.

Agradecemos al Dr. Luciano Garelli por toda la información y las fotos de los clusters.

 

 

por Nicolás Wolovick, Director del CCAD-UNC.

“El HPC y la simulación numérica deberían ser una política de Estado”

Antonio Russo, ex CPA-CONICET del CCAD, analiza las implicancias para nuestro país de tener un desarrollo deficiente y centralizado, en materia de supercomputación.

Recientemente, Chile anunció la creación de un nuevo Laboratorio Nacional de Supercomputación que integra a 44 instituciones científicas y académicas del país hermano. Esta es una muy buena oportunidad, no sólo para celebrar el ingreso de un país Latinoamericano al mundo de la supercomputación a gran escala, sino también para preguntarse por qué Argentina no tiene algo similar ¿De qué nos estamos perdiendo?, ¿cuál es la importancia de este tipo de sistemas?
Hace algún tiempo, un grupo de integrantes del Centro de Computación de Alto Desempeño (CCAD, UNC), encabezado por Antonio Russo, propuso crear una red semejante a la que se inaugurará en Chile, llamada Centro Federal Argentino de Supercomputación (CFAS). Lamentablemente, la iniciativa nunca llegó a materializarse y, en la actualidad, Antonio -quien se había repatriado- partió a tierras Europeas para trabajar como Especialista en Sistemas de HPC dentro de la Ecole Polytechnique Fédérale de Lausanne (EPFL), en Suiza. A raíz de esta noticia, conversamos con él acerca de las implicancias para nuestro país de tener un desarrollo deficiente y centralizado, en materia de supercomputación.

– ¿En qué consistía el proyecto CFAS?
– Nuestra idea era crear un gran centro de supercomputación en Córdoba y 4 o 5 medianos, diseminados por todo el territorio nacional que funcionaran como una red, con una misma estructura y con compras unificadas. Además esto permitiría aprovechar la rotación de las máquinas. Por ejemplo, cuando el centro más grande renovara una máquina a los 3 años de haberla adquirido para no perder competitividad, se podría dividir esa máquina aún vigente y con potencia de cálculo, en otras más pequeñas para los centros de proximidad. De esta manera se completaría su vida útil que es de unos 5 años, o sea, podría usarse durante dos años más.

– ¿Por qué lo pensaron como una red y no como un gran centro que condensara todo?
– En gran medida lo que se buscaba solucionar era la necesidad de trasladarse físicamente a un centro cualquiera, en un país tan extenso. Para que eso no ocurra, la gente debería poder conectarse desde diferentes lugares. El tema es que existe un gran problema de conectividad en Argentina y desde Chaco, por ejemplo, no sería fácil conectarse con un centro de Córdoba. Entonces la solución que habíamos diseñado era tener un gran centro en Córdoba, nacional, que pueda hacer simulaciones a gran escala al que se pudiera acceder cuando se necesitara mucha potencia de cálculo. Ahora, en el proceso de simulación numérica, los científicos van preparando sus códigos, van ejecutando trabajos que requieren menor potencia de cálculo y van probando; cuando están listos ejecutan los trabajos de simulación más grande que casi siempre dan origen a una publicación científica o, en el mejor de los casos, a una patente. Es decir que al lado de grandes supercomputadoras, es necesario tener clusters medianos locales, en diferentes lugares, para que estén más cerca de los diversos usuarios. De esta manera podrían no sólo acceder a una capacidad de cálculo determinada, sino también tener contacto con los ingenieros que administran esas máquinas y obtener soporte específico y de calidad. Lamentablemente no se hizo.

– ¿Por qué en Córdoba y no, por ejemplo, en Buenos Aires, donde ya hay quizás, una mayor infraestructura?
– Creo que uno de los principales problemas que tiene Argentina en todo sentido es que no hemos sabido ejercer el federalismo, y esto buscaba equilibrar un poco la balanza. Si uno mira a donde están todos los grandes laboratorios, los grandes centros de investigación y los clusters de cálculo, en nuestro país, actualmente, está todo en Buenos Aires -o AMBA, más precisamente-. A excepción de Córdoba que, un poco, balancea la cosa. Esto no es así en todos lados: hay Estados Federales que funcionan bien y eso está en la base de la discusión. Para dar un ejemplo, en Suiza, donde vivo actualmente, el único motivo por el que tengo que ir a Berna, la capital, es para ir a la Embajada Argentina. En Córdoba, o en cualquier otra provincia del país, tenemos que pasar sistemáticamente por la capital: para pedir subsidios de investigación, para aprobar los proyectos, etc. Yo creo que hay que ejercer el federalismo y una buena manera de hacerlo es descentralizar funciones por todas las provincias. En el caso de Suiza, por ejemplo, sus dos principales Centros de Súper Cálculo se ubican en dos cantones latinos, el de Ticino y el de Vaud, en vez de estar en la capital o en Zurich que es la ciudad mas importante. La supercomputadora mas potente del mundo no se encuentra ni en el estado de New York ni en el estado de California sino en Tennessee. Creo que son buenas prácticas a imitar.

– Más allá de este punto que señalás, ¿cómo es el estado de la supercomputación en Argentina?
Somos el único país del G20 que no tiene computación de Alto Desempeño; porque no hay una sola máquina digna de ese nombre. Si sumamos toda la potencia de cálculo que hoy tenemos instalada en todos los centros del país, no llegamos ni a un tercio de la potencia de la última máquina del TOP500.
Hay que destacar que los profesionales argentinos son de primer nivel, hacen milagros con muy pocos recursos, o sea que cuando a algún gobierno se le ocurra invertir en este tipo de tecnologías, vamos a ser líderes mundiales, porque tenemos gente ultra-capacitada. Pero hasta ahora los gobiernos, de todos los colores políticos, no han puesto nunca un centavo en esto.

– ¿Qué consecuencias tiene esto en el Sistema de Ciencia y Tecnología de Argentina?
– El principal problema que trae aparejado es que los investigadores tienen que apoyarse, muchas veces, en la capacidad de cálculo de otros países. Pero eso trae otro inconveniente: las investigaciones de estos investigadores que están simulando afuera, se orientan a temas que les interesan a estos países. Están investigando sobre temas que importan muy poco a la sociedad argentina; no son temas prioritarios para nuestro desarrollo como país. Y eso hay que entenderlo, la ciencia y la tecnología están íntimamente ligadas al desarrollo económico y social de un país. Argentina es un país que, hoy por hoy, termina investigando gratis para países desarrollados. Podemos seguir con ese modelo o construir un modelo soberano, autónomo y que nos permita desarrollarnos, para lo cual deberían empezar a hacerse las cosas de otra manera e invertir en capacidad de cálculo.

– Imagino que este no es el único ámbito que se ve perjudicado por no tener un sistema de Computación de Alto Desempeño…
– Claro que no. En primer lugar, yo creo que es imposible ejercer la soberanía en este siglo, sin poder de computación. Si una entidad -ya sea un Estado, una empresa o un individuo- no tiene poder de cálculo, está aislado de la sociedad. Y esto se ve de una manera muy simple en la diversidad de posibilidades que brinda un smartphone en relación a una calculadora, por ejemplo. Una empresa con capacidad de cómputo va a poder optimizar los costos en todas sus áreas, ofrecer a sus colaboradores mejores condiciones de trabajo y servir a sus clientes con precios más competitivos. A nivel país, lo que representa eso, en gran medida, es la informática paralela, o sea, es la simulación numérica en ámbito científico. Te doy un ejemplo simple. El cálculo del pronóstico meteorológico, sumamente necesario en un país que produce commodities, como el nuestro; influye directamente en la capacidad productiva del complejo agroindustrial. Y esto depende enteramente de la capacidad de cálculo, porque mientras mayor es tu capacidad de cálculo, menor es el mallado que podés hacer. Si vos podés calcular tu pronóstico dividiendo el territorio argentino en cuadrados de 50 km² -porque tu capacidad de cálculo no te permite calcular más que eso- seguramente vas a obtener pronósticos menos precisos y fiables que si tenés la capacidad para dividir el territorio en cuadrados de 1 km² . Ahora, un boletín meteorológico de calidad, beneficia no solo a los productores rurales, sino al sistema logístico, a la industria que produce maquinarias para trabajar los campos, a los contratistas que ofrecen sus servicios, etc. Es decir que el valor agregado de tu economía crece exponencialmente.
Los beneficios pueden verse en innumerables áreas. Personalmente conozco y te puedo mencionar, además del área de meteorología, el área de simulaciones de perforaciones petrolíferas: antes se perforaba para ver si había o no petróleo, ahora se hacen simulaciones y se perfora solamente en los sitios que más probabilidades tienen, bajando enormemente los costos. En lo que es producción industrial, se puede simular el comportamiento de un nuevo automóvil o de un avión. En la producción de fármacos se pueden simular las interacciones entre diferentes moléculas sin tener que invertir tiempo y dinero realizando los experimentos. Entonces, es una cuestión fundamental, más allá de cualquier división ideológica, tener capacidad de cómputo. Si nosotros queremos participar en el concierto de las naciones, queremos comerciar, intercambiar bienes y servicios, necesitamos tener los instrumentos que nos permitan generar valor y adquirir bienes. Hoy nadie puede producir bienes de calidad a un precio competitivo si no tiene poder de cómputo.
Es decir que el HPC y la simulación numérica deberían ser una política de Estado de todos los países del planeta, independientemente de su situación económica.

– Pero ¿qué inversión se necesita? ¿Argentina está en condiciones de afrontarla?
– Para empezar, está demostrado que el beneficio de la inversión que se requiere tanto en equipamiento como en recursos humanos, se multiplica, en el peor de los casos por 12 y en el mejor por 40 o hasta 45. Es decir que un Estado que hace una inversión de, supongamos, 100 millones de dólares en computación de alto desempeño, en 5 años (que es la vida útil de un equipo) recupera entre 1200 millones y 4000 millones de dólares. Es decir que no hay mejor inversión y la prueba está en que todos los países industrializados invierten masivamente en esto. No invierten más porque no disponen de más personal capacitado. En eso Argentina tiene una ventaja comparativa que es la gente capacitada, con niveles de salario relativamente bajos a nivel internacional; es decir que la única inversión que le falta es la de equipos y datacenters. Si no me equivoco, hoy Cordoba podría albergar en el nuevo datacenter de la UNC una supercomputadora que esté entre las 500 más potentes del planeta invirtiendo entre 15 y 20 millones de dólares que, en el caso de Argentina, representa aproximadamente el 0,01 % del gasto público anual. Argentina tiene todo lo que hace falta.

Nueva Compra Comunitaria: 25 discos 8 TiB

Esta nueva compra comunitaria habilitará un nuevo NAS para Mendieta Fase 2, que reemplazará un viejo equipo Chembro de la época de la Supercomputadora Cristina. Aportaron desde trece Proyectos de Investigación de usuarias y usuarios de todo el país.

Luego de un proceso de casi 4 meses terminó una nueva compra comunitaria del Centro de Computación de Alto Desempeño (CCAD, UNC). En este tipo de compras las y los usuarios aportan lo que pueden, en este caso, discos HDD 8 TiB, con un costo aproximado de 340 USD por unidad. Esto permite, por un lado, aumentar el sentido de pertenencia de las y los usuarios y, por el otro, eficientizar el gasto de cada uno de los pequeños subsidios individuales que cada investigadora o investigador posee. Compramos 8000 USD -o sea $1.000.000-, que sería poco menos que imposible para los flacos subsidios actuales de un Grupo de Investigación.

Jenga de 21 HDDs, por Marcos Mazzini

Se compraron 25 discos rotacionales de 8 TiB de 10000 RPM con interfaz SAS3, que serán conectados a uno de los dos JBOD  adquiridos por el Dr. Cristian Giuppone (OAC-UNC, IATE-CONICET), que están prontos a llegar.

Las y los aportantes fueron:

  • 1, Mariana Cécere, OAC-UNC, IATE-CONICET, PICT 2016-2480.
  • 4, Cecilia Giménez.
  • 8, Daniel A. García, IIBYT-CONICET,
  • 2, María Angélica Perillo.
  • 1, Orlando Vito Billoni, GTMC-FaMAF-UNC.
  • 1, Sergio Ribone, FCQ-UNC, PICT 2019-3461.
  • 1, Paola Quaino, Universidad Nacional del Litoral, PICT 2017-1342.
  • 1, Mario del Pópolo, Universidad Nacional de Cuyo, Proyectos SIIP 06/M107 y M074.
  • 1, Gustavo Belletti, Universidad Nacional del Litoral, PICT 2019-3392.
  • 1, Carlos Bederián y Nicolás Wolovick, FaMAF-UNC, Subsidio SeCyT.
  • 1, José Luis Borioni, FCQ-UNC, Subsidio SeCyT.
  • 2, María Eugenia Budén, FCQ-UNC, PICT 2021-0376.
  • 1, Emilio Donoso, ICATE-CONICET, Universidad Nacional de San Juan, Proyecto PUE22920180100059CO.

Con los 24 discos más 1 de respuesto, tendremos un almacenamiento de 192 TiB totales y 145 TiB usables, una vez que Carlos Bederián y Marcos Mazzini los instalen y configuren en RAID60.

Agradecemos la paciencia de Alejandro Jabo de Multitech, que estuvo contando disco por disco, transferencia por transferencia, para que tuviéramos estos 25 discos.

 

*Por Nicolás Wolovick, Director del CCAD

Serafín al servicio de Y-TEC.

La empresa de investigación y desarrollo para la industria energética contrató los servicios del Centro de Computación de Alto Desempeño (CCAD) de la Universidad Nacional de Córdoba.

Speedup de la solución

El CCAD comenzó a brindar servicios de alto desempeño a Y-TEC, la empresa de tecnología de YPF y el CONICET. Esta compañía es la principal empresa de investigación y desarrollo para la industria energética de Argentina y contrató los servicios del CCAD con el fin de desplegar en Serafin su plataforma de modelado y simulación de estimulación hidráulica y mecánica de rocas, Y-FRAC®, y aplicarla al estudio de los reservorios de interés. Esta plataforma está especialmente diseñada para correr en paralelo en clusters de alto desempeño.
El servicio brindado desde el CCAD a Y-TEC implica un doble desafío, en términos de infraestructura y también de know how. Por un lado, esta simulación involucró hasta ahora un máximo de 32 de los 60 nodos que componen a Serafín, siendo la simulación más grande que corrió dicha supercomputadora, con un total de 2048 cores. Además, a lo largo del trabajo de adaptación se consiguió que el escalado en términos de cores, se viera reflejado también en un aumento proporcional de la velocidad de cálculo (ver Gráfico). Esto demuestra que, efectivamente, Serafín funciona como un todo, no como una colección de computadoras desconectadas, y esto es gracias a su red de interconexión de alta velocidad y baja latencia.
Por otro lado, la complejidad de los procesos que se llevaron a cabo requirió la instalación de diversas bibliotecas como PETSc, y la solución de bugs. En esta etapa de depuración, el CPA-CONICET Carlos Bederián colaboró estrechamente con el equipo de desarrollo de Y-TEC para que su plataforma de simulación alcanzara un funcionamiento óptimo.

 


La implementación del stack MPI realizada por el Open MPI Project incluye la posibilidad de utilizar el estandar Open UCX para comunicaciones de alta velocidad y baja latencia. En esta plataforma, que hace uso de todas las capacidades del hardware subyacente, algunas cosas cambian. En este caso había un problema en el código de Y-FRAC que impedía el buen funcionamiento bajo esta combinación OpenMPI+UCX. El campo tag utilizado en las comunicaciones está limitado a 24 de los 32 bits que tiene en la definición del estándar. El CPA-CONICET Carlos Bederián, ató cabos y pudo asesorar al personal de Y-TEC para subsanar este inconveniente. El software estaba usando tags por fuera del rango de 24 bits lo cual producía resultados incorrectos.


Esta satisfactoria experiencia abre una etapa de fructífera cooperación entre una empresa nacional de base científica y un centro de cómputos de una Universidad Nacional, pública, ubicada en la provincia de Córdoba. Pero, además, muestra que el CCAD es un centro con una altísima capacidad no sólo de cómputo, sino también de adaptabilidad a diversas demandas, tanto del sector científico como empresarial e industrial.