Día de la mujer: por un mundo digital inclusivo

En el marco del DÍA INTERNACIONAL DE LA MUJER, desde el CCAD nos sumamos a el lema propuesto desde la ONU: “Por un mundo digital inclusivo: Innovación y tecnología para la igualdad de género

Las mujeres estuvieron muy presentes en el desarrollo de la informática y la computación, en sus primeras etapas. De hecho, es bien conocido el caso del grupo compuesto por seis matemátcas que estuvieron encargadas de programar la primera computadora electrónica de Estados Unidos, lo que produjo una verdadera revolución informática. Sin embargo, lentamente, esto empezó a modificarse y con el boom de las computadora personales la presencia masculina fue abrumadora y la brecha de género en esta área se hizo casi infranqueable.

En la actualidad, según la ONU, un 37% de las mujeres del mundo no tienen acceso a internet y son las principales víctimas de acoso informático. Además, las mujeres siguen siendo minoría en las disciplinas STEM (Ciencia, Tecnología, Ingeniería y Matemática), tanto en el mundo laboral como en el académico, y constituyen sólo el 28 por ciento de las personas graduadas en ingeniería, el 22 por ciento de quienes trabajan en inteligencia artificial y menos de un tercio de la fuerza laboral en el sector tecnológico en todo el mundo.

Esta situación limita el empoderamiento digital de las mujeres y su participación en diversas maneras de activismo por sus derechos, pero también las deja afuera de un mercado laboral más que prometedor, ya que de acuerdo a las cifras de la ONU, para 2050, el 75% de los trabajos estarán relacionados con las áreas STEM.

El caso de la Computación de Alto Desempeño (HPC por sus siglas en inglés) es difícil de evaluar, dado que no existen cifras oficiales de la cantidad de mujeres que integran el campo porque muchas veces la HPC es una herramienta para otras disciplinas más que una carrera en sí. Sin embargo, algunos indicadores, como la participación en las principales conferencias indica que sólo el 10% de lxs autores son mujeres (aún más bajo que el 20 o 30% que se encuentran en otras áreas relacionadas a la tecnología), los hombres tienen roles más visibles y son más citados. Finalmente, la representación femenina cae fuertemente en niveles de mayor experiencia. (Ver paper)

 

Causas de la brecha de género y posibles soluciones.

La ONU explica que “Los estereotipos sobre qué personas están más o menos capacitadas para las disciplinas STEM tienen un peso enorme y disuaden a las niñas de decantarse por estos campos. Las que se deciden por entrar en el mundo de la tecnología a menudo se enfrentan a un entorno abiertamente hostil, con una notable brecha salarial (un 21 por ciento) y tasas de promoción considerablemente inferiores (52 mujeres por cada 100 hombres). Casi la mitad (un 48 por ciento) afirma haber sufrido acoso en el lugar de trabajo. Y un escalofriante 22 por ciento afirma haber valorado la posibilidad de dejar el trabajo debido al trato recibido en el sector. “

A todo esto se suma que la falta de representación genera una especie de círculo vicioso que repercute negativamente en la presencia de mujeres en el ámbito de la creación, el uso y la regulación de la tecnología.

Por último, la ONU afirma que “Para que las mujeres tengan éxito en un entorno laboral cambiante, es preciso crear programas específicos de mejora y ampliación de las competencias profesionales enfocados prioritariamente en los grupos con un mayor riesgo de exclusión. Además, necesitamos regulación laboral más sólida para garantizar que la transición del mercado de trabajo mejora la posición de las mujeres, en lugar de limitarse a reproducir las desigualdades existentes. Esto incluye un salario mínimo vital, leyes contra la discriminación salarial y sistemas de protección social que resuelvan, entre otros aspectos, las discrepancias entre las cargas de trabajo doméstico y de cuidados de las mujeres y de los hombres.”

*Por Mariela López Cordero

Workshop Simular para Experimentar: el lab 2.0

El CCAD (UNC) junto al IHEM (CONICET-UNCUYO) organizan un workshop virtual y gratuito sobre supercomputación aplicada a la investigación en biología, física y química. Jueves 9 de marzo, a partir de las 10 hs.

Simular para Experimentar: el lab 2.0 es una jornada de mesas redondas y charlas acerca de la supercomputación como herramienta transversal a la biología, la física y la química. El workshop, virtual y gratuito, está orientado a personas que realicen investigaciones experimentales en estas disciplinas y que complementen sus trabajos de investigación con simulaciones numéricas o tengan la intención de hacerlo).

El encuentro consistirá de 3 mesas redondas, una por disciplina. Cada mesa comenzará con una charla de apertura, continuará con la puesta en común y discusión de experiencias -buenas o malas- en el uso de simulaciones numéricas, computación de alto desempeño y la interdisciplina que esto requiere y, finalmente, se realizará un cierre con opiniones e inquietudes de los participantes.

El Workshop tendrá lugar el día 9 de marzo y los horarios de las mesas serán los siguientes:
* Biología a las 10 hs
* Física 14 hs
* Química 16hs.

Para participar sólo hay que inscribirse en este link

Organización: Diego Masone (IHEM, CONICET-UNCUYO) , Marcelo Puiatti (CCAD, UNC), Juan Perotti (CCAD, UNC) y Nicolás Wolovick (CCAD, UNC).

Nuevos representantes de FCEFyN en CCAD

Se continua con el proceso de renovación de las y los representantes en el Centro de Computación de Alto Desempeño de la UNC. En este caso la Facultad de Ciencias Exactas, Físicas y Naturales, nombró por primera vez a sus representantes para integrar el Directorio del CCAD. Como titular asumió Nehuen Gonzalez Montoro y como suplente, Renato Cherini.

Nehuen Gonzalez Montoro es Ingeniero electrónico (UNC), profesor de Informática e investigador del Laboratorio de Comunicaciones Digitales y Centro de Vinculación de Comunicaciones Digitales de la FCEFyN. Se especializa en algoritmos y modelos para el análisis, planificación y aprovisionamiento en redes ópticas.

 

 

Renato Cherini es Doctor en Ciencias de la Computación (FAMAF-UNC), Profesor en FAMAF y FCEFyN. Participa de numerosos proyectos de investigación en verificación formal de programas, filosofía de la computación, y más recientemente, deep learning geométrico. Además participa en proyectos de vinculación tecnológica con el sector aeroespacial y de telecomunicaciones.

Conocer la diversidad genética de las antiguas poblaciones pampeanas a través de Mendieta

Angelina García -investigadora- y Nicolás Pastor -personal de apoyo- del IDACOR (CONICET-UNC), emplean los recursos del CCAD para estudiar la variabilidad genética de diferentes poblaciones humanas de Argentina.

El sur de la región pampeana de nuestro país fue uno de los primeros espacios geográficos en ser ocupados en el continente americano. Sin embargo, la dinámica evolutiva de los poblaciones que habitaron esta región ha sido escasamente documentada y preguntas relacionadas con la continuidad e interacciones con otros grupos siguen abiertas. Justamente, en esos puntos vacíos se centra el trabajo en el que participan Angelina García, investigadora del CONICET, y Nicolás Pastor, profesional de apoyo del CONICET, en el Instituto de Antropología de Córdoba (IDACOR, CONICET-UNC). “Nuestro proyecto marco tiene por objetivo comprender los procesos microevolutivos que dieron forma a la variabilidad genética de diferentes poblaciones humanas de nuestro país, y así contribuir al conocimiento de su historia evolutiva. En este estudio describimos los patrones espaciales y temporales de la diversidad genética por línea materna de grupos humanos procedentes del sur de la región pampeana”, explica la investigadora.

Dicho estudio se centró en el análisis de mitogenomas, es decir, de todo el ADN que se encuentra en las mitocondrias -ubicadas en el citoplasma de las células, en lugar del núcleo como el resto del ADN- y que se hereda exclusivamente por línea materna. Para elaborar los patrones espaciales y temporales de la dinámica poblacional de la región, se compararon los datos obtenidos en este estudio con una base de datos que recopila 2.577 mitogenomas modernos y 160 mitogenomas antiguos, procedentes de datos previamente publicados de poblaciones sudamericanas.

Mendieta Fase 2 (MendietaF2) es fundamental en este proceso ya que, si bien estos análisis pueden realizarse fácilmente en computadoras personales cuando son a pequeña escala (en el orden de cientos de secuencias con cientos de bases), el análisis de miles de secuencias de mitogenomas completos (cada uno con 16.569 pares de bases) se torna computacionalmente ineficiente. “Previo a que tomáramos contacto con el CCAD, realizábamos estos análisis en nuestras computadoras personales, dedicadas exclusivamente a este procesamiento durante semanas, a fin de completar una sola corrida. Actualmente, aprovechando las GPUs NVIDIA A30 del cluster MendietaF2, podemos completar una corrida en menos del tiempo límite de ejecución del nodo (48 hs)”, comenta Pastor. “Esto claramente potencia nuestro trabajo ya que nos permite ejecutar más corridas en un mismo período de análisis, y así poner a pruebas diferentes modelos, incluyendo los más complejos que serían prohibitivos en computadoras personales. Todo ello, nos posibilita estar a la altura del estándar internacional para análisis de este tipo, sin necesidad de comprometernos en colaboraciones forzadas por la disponibilidad a los recursos computacionales, brindándonos autonomía para llevar adelante nuestras investigaciones y soberanía sobre las preguntas que las motivan”, agrega Pastor.

 

Mendieta y BEAST, al servicio de la Genética de Poblaciones Humanas

Los trabajos que hemos ejecutando en el cluster MendietaF2 implicaron la utilización del programa BEAST, con el cual se realizaron análisis Bayesianos a partir de secuencias de ADN mitocondrial, utilizando el método de Monte Carlo basado en cadenas de Markov (MCMC). De forma general, a partir de las secuencias de ADN , combinando diferentes modelos teóricos de evolución molecular y datos externos, como el fechado de las muestras antiguas, podemos estimar el tiempo del ancestro común más reciente de diferentes linajes. Esto permite reconstruir la historia evolutiva de los linajes en forma de árboles, estimar la edad a la que ocurrió la divergencia entre los linajes e inferir cambios en los tamaños de las poblaciones a lo largo del tiempo.

 

La evolución de la Genética de Poblaciones Humanas como disciplina científica.

La Genética de Poblaciones Humanas (GPH) es una disciplina sintética que surge a partir de la aplicación combinada de los métodos y teorías de la Genética y Biología Evolutiva, para investigar las causas de la diversidad genética de las poblaciones humanas en el presente y la historia evolutiva que la ha generado. En el inicio, la escasez de datos empíricos redundó en una fecunda base teórica de la disciplina. Durante una fase intermedia, desde los años setenta hasta principios de los noventa, cuando los marcadores genéticos clásicos y moleculares se tipificaban con facilidad, predominaron los análisis descriptivos de la variación genética. Cuando los modelos demográficos y genéticos se volvieron más complejos eran teóricamente intratables o computacionalmente prohibitivos.

En la actualidad, la comunidad científica nacional e internacional está constantemente produciendo datos a partir de genomas completos mitocondriales y nucleares o de centenares de miles o millones de variantes genéticas, para un número mayor de muestras. “En consecuencia, el tamaño y complejidad creciente de los conjuntos de datos generados dificultó aún más la validez y eficacia en las inferencias estadísticas para responder a preguntas de la GPH. A pesar de ello, el uso de datos genómicos masivos se convirtió en el estándar de los estudios de GPH, útiles para comparar e integrar a los estudios que desarrollamos en distintos laboratorios de nuestro país. Esto significa que es primordial para la comunidad científica disponer de los exigidos recursos computacionales para el manejo de dicho volumen de datos y de los métodos estadísticos necesarios para su procesamiento”, concluye García.

Serafín como caso de estudio mundial

La empresa fabricante de procesadores AMD, tomó a Serafín como un ejemplo sobresaliente a nivel mundial del uso de su tecnología.

La historia de la computación de alto desempeño en la Universidad Nacional de Córdoba, arrancó en 2011 con la llegada de la supercomputadora Cristina. Y desde entonces hasta el presente, con pequeños pasos pero a marcha firme, no dejó de avanzar. En 2021 se inauguraron las instalaciones de Data Center y, casi en simultáneo, el CCAD estrenó su más preciado cluster: Serafín; un equipo marca Supermicro con procesadores AMD, entre 2 y 3 veces más rápido que sus antecesores. Hoy, es modelo y caso de estudio a nivel mundial, gracias al seguimiento de AMD.

Juan Moscoso – AMD

“A partir del acompañamiento de Diego Lavalle, representante oficial de Supermicro en Argentina, y Juan Moscoso de AMD LatAm, pudimos adquirir un 50% más de procesadores por el mismo presupuesto. De hecho, si multiplicas los 120 procesadores AMD EPYC por lo que vale uno en el mercado, el costo, sólo en procesadores, supera al de todo el cluster. Hicimos una compra escandalosamente buena”, asegura Nicolás Wolovick, director del CCAD.

Diego Lavalle – Supermicro

Por su parte, la empresa AMD, a través de diferentes casos de estudio, muestra ejemplos sobresalientes a nivel mundial del uso de su tecnología y, recientemente, Serafín fue incluido dentro de este selecto grupo. “Estamos muy contentos de contar con este caso de referencia, un proyecto referente para toda la región que, de hecho, es el primero en ser publicado en nuestro sitio de casos de estudio a nivel mundial. Tenemos un fuerte compromiso con esta increíble institución y su equipo profesional y aprovechamos esta instancia para dejarla posicionada a la par de otras grandes instituciones reconocidas mundialmente, las cuales también han confiado en nuestra tecnología”, expresa Juan Moscoso en nombre de AMD.

“La importancia para nosotros es que una computadora chica, realmente chica, está ahí. Porque gracias a ella pegamos un salto enorme en capacidad de cálculo y por lo tanto mejoramos nuestras capacidades de producir ciencia. Está siendo utilizada al 100% de su capacidad desde septiembre de 2021 y usando esos recursos se pudieron producir muchas publicaciones de relevancia”, comenta Wolovick. “Agradecemos enormemente esa confianza que han depositado en nuestra marca -agrega Moscoso- y esperamos poder seguir creciendo juntos, poniendo a disposición de toda la comunidad mayores posibilidades para desarrollar investigación de clase mundial desde este lado del continente”. 

“Nuestro Centro brinda servicio a muchos grupos de investigación, de diversas disciplinas y con diferentes necesidades. Tratamos de cubrir todos los flancos y, para eso, necesitamos hacer rendir nuestro presupuesto al máximo, buscando la mejor relación precio – performance posible. En este caso, los procesadores AMD EPYC, además de un precio altamente favorable, ofrecen el balance entre potencia y memoria que estábamos buscando”, explica Carlos Bederián, arquitecto de los clusters del  CCAD.

“Nuestros usuarios están extremadamente felices -cuenta Wolovick-. Serafín es hoy el cluster de preferencia de nuestro Centro, gracias a su velocidad. Hasta ahora se publicaron 38 trabajos científicos y las proyecciones indican que para fin de año vamos a rondar los 50 papers para 2022. Es un claro indicio de que estamos ofreciendo una gran potencia de cómputo a la comunidad científica local”.

“Estamos orgullosos de ser parte de este camino y esperamos seguir colaborando con el CCAD. Así como con otras universidades y centros estudio de Argentina y la región para tener más casos como este de la UNC, desplegado por todos los países de Sudamérica”, concluye Moscoso.

[Documento PDF]

Nuevos representantes del CCAD en el Consejo Asesor del SNCAD

Recientemente, dos integrantes del CCAD desde su fundación, Manuel Merchán y Dante Paz, asumieron como representantes del Centro en el Consejo Asesor del Sistema Nacional de Computación de Alto Desempeño (SNCAD). Con tal motivo, Dante Paz hace una breve reseña de lo que este nombramiento implica.

«El Sistema Nacional de computación de alto desempeño SNCAD es una red Nacional de centros de supercomputación del país que busca promover y coordinar la computación de alto desempeño (HPC) a nivel Nacional. El CCAD forma parte del SNCAD desde su fundación como uno de los mayores centros integrales de esta red.

Siendo en múltiples ocasiones y durante largos intervalos de tiempo, desde la creación del SNCAD, el centro con mayor poder de cómputo y mayor crecimiento del país (en equipamientos y comunidad de usuarios), resultaba inexplicable que hasta el momento no tuviera representación directa en el SNCAD.

Anteriormente la Dra. Patricia Paredes, quien fuera parte del directorio del CCAD y actualmente forma parte de su Consejo Científico, integró el Consejo Asesor del SNCAD pero como representante del CIN, y no del CCAD. No obstante, a través de la Dra. Paredes, el CCAD realizó varios aportes al SNCAD, como fue en su momento el proyecto CFAS del cual se tomaron varios de sus lineamientos para el diseño del plan estratégico del SNCAD.

El Consejo Asesor es el lugar donde se definen y coordinan los programas del SNCAD, y Asesora al MINCYT y al CICyT sobre políticas de HPC. De ese Consejo depende la evaluación e incorporación de equipos de cómputo, así como la evaluación del financiamiento otorgado para computación -por ejemplo, a través de programas como el equipar ciencia del MINCYT- entre otros.

Así mismo de este Consejo Asesor dependerá la evaluación y la asignación de tiempo de cómputo en el centro Nacional que se prevé crear en el data center del Servicio Meteorológico Nacional.

Por todo esto resulta muy importante la participación del CCAD en el Consejo Asesor, teniendo un representante que lleve la experiencia que tiene nuestro centro y participe en la asesoría y toma de decisiones. Para mí es un orgullo y una responsabilidad muy grande representar al CCAD en el Consejo y mi compromiso es brindar el punto de vista y la experiencia que tiene el equipo de trabajo del CCAD, representando lo más fielmente posible la visión que aportamos desde la UNC al Sistema Nacional.»

“El HPC y la simulación numérica deberían ser una política de Estado”

Antonio Russo, ex CPA-CONICET del CCAD, analiza las implicancias para nuestro país de tener un desarrollo deficiente y centralizado, en materia de supercomputación.

Recientemente, Chile anunció la creación de un nuevo Laboratorio Nacional de Supercomputación que integra a 44 instituciones científicas y académicas del país hermano. Esta es una muy buena oportunidad, no sólo para celebrar el ingreso de un país Latinoamericano al mundo de la supercomputación a gran escala, sino también para preguntarse por qué Argentina no tiene algo similar ¿De qué nos estamos perdiendo?, ¿cuál es la importancia de este tipo de sistemas?
Hace algún tiempo, un grupo de integrantes del Centro de Computación de Alto Desempeño (CCAD, UNC), encabezado por Antonio Russo, propuso crear una red semejante a la que se inaugurará en Chile, llamada Centro Federal Argentino de Supercomputación (CFAS). Lamentablemente, la iniciativa nunca llegó a materializarse y, en la actualidad, Antonio -quien se había repatriado- partió a tierras Europeas para trabajar como Especialista en Sistemas de HPC dentro de la Ecole Polytechnique Fédérale de Lausanne (EPFL), en Suiza. A raíz de esta noticia, conversamos con él acerca de las implicancias para nuestro país de tener un desarrollo deficiente y centralizado, en materia de supercomputación.

– ¿En qué consistía el proyecto CFAS?
– Nuestra idea era crear un gran centro de supercomputación en Córdoba y 4 o 5 medianos, diseminados por todo el territorio nacional que funcionaran como una red, con una misma estructura y con compras unificadas. Además esto permitiría aprovechar la rotación de las máquinas. Por ejemplo, cuando el centro más grande renovara una máquina a los 3 años de haberla adquirido para no perder competitividad, se podría dividir esa máquina aún vigente y con potencia de cálculo, en otras más pequeñas para los centros de proximidad. De esta manera se completaría su vida útil que es de unos 5 años, o sea, podría usarse durante dos años más.

– ¿Por qué lo pensaron como una red y no como un gran centro que condensara todo?
– En gran medida lo que se buscaba solucionar era la necesidad de trasladarse físicamente a un centro cualquiera, en un país tan extenso. Para que eso no ocurra, la gente debería poder conectarse desde diferentes lugares. El tema es que existe un gran problema de conectividad en Argentina y desde Chaco, por ejemplo, no sería fácil conectarse con un centro de Córdoba. Entonces la solución que habíamos diseñado era tener un gran centro en Córdoba, nacional, que pueda hacer simulaciones a gran escala al que se pudiera acceder cuando se necesitara mucha potencia de cálculo. Ahora, en el proceso de simulación numérica, los científicos van preparando sus códigos, van ejecutando trabajos que requieren menor potencia de cálculo y van probando; cuando están listos ejecutan los trabajos de simulación más grande que casi siempre dan origen a una publicación científica o, en el mejor de los casos, a una patente. Es decir que al lado de grandes supercomputadoras, es necesario tener clusters medianos locales, en diferentes lugares, para que estén más cerca de los diversos usuarios. De esta manera podrían no sólo acceder a una capacidad de cálculo determinada, sino también tener contacto con los ingenieros que administran esas máquinas y obtener soporte específico y de calidad. Lamentablemente no se hizo.

– ¿Por qué en Córdoba y no, por ejemplo, en Buenos Aires, donde ya hay quizás, una mayor infraestructura?
– Creo que uno de los principales problemas que tiene Argentina en todo sentido es que no hemos sabido ejercer el federalismo, y esto buscaba equilibrar un poco la balanza. Si uno mira a donde están todos los grandes laboratorios, los grandes centros de investigación y los clusters de cálculo, en nuestro país, actualmente, está todo en Buenos Aires -o AMBA, más precisamente-. A excepción de Córdoba que, un poco, balancea la cosa. Esto no es así en todos lados: hay Estados Federales que funcionan bien y eso está en la base de la discusión. Para dar un ejemplo, en Suiza, donde vivo actualmente, el único motivo por el que tengo que ir a Berna, la capital, es para ir a la Embajada Argentina. En Córdoba, o en cualquier otra provincia del país, tenemos que pasar sistemáticamente por la capital: para pedir subsidios de investigación, para aprobar los proyectos, etc. Yo creo que hay que ejercer el federalismo y una buena manera de hacerlo es descentralizar funciones por todas las provincias. En el caso de Suiza, por ejemplo, sus dos principales Centros de Súper Cálculo se ubican en dos cantones latinos, el de Ticino y el de Vaud, en vez de estar en la capital o en Zurich que es la ciudad mas importante. La supercomputadora mas potente del mundo no se encuentra ni en el estado de New York ni en el estado de California sino en Tennessee. Creo que son buenas prácticas a imitar.

– Más allá de este punto que señalás, ¿cómo es el estado de la supercomputación en Argentina?
Somos el único país del G20 que no tiene computación de Alto Desempeño; porque no hay una sola máquina digna de ese nombre. Si sumamos toda la potencia de cálculo que hoy tenemos instalada en todos los centros del país, no llegamos ni a un tercio de la potencia de la última máquina del TOP500.
Hay que destacar que los profesionales argentinos son de primer nivel, hacen milagros con muy pocos recursos, o sea que cuando a algún gobierno se le ocurra invertir en este tipo de tecnologías, vamos a ser líderes mundiales, porque tenemos gente ultra-capacitada. Pero hasta ahora los gobiernos, de todos los colores políticos, no han puesto nunca un centavo en esto.

– ¿Qué consecuencias tiene esto en el Sistema de Ciencia y Tecnología de Argentina?
– El principal problema que trae aparejado es que los investigadores tienen que apoyarse, muchas veces, en la capacidad de cálculo de otros países. Pero eso trae otro inconveniente: las investigaciones de estos investigadores que están simulando afuera, se orientan a temas que les interesan a estos países. Están investigando sobre temas que importan muy poco a la sociedad argentina; no son temas prioritarios para nuestro desarrollo como país. Y eso hay que entenderlo, la ciencia y la tecnología están íntimamente ligadas al desarrollo económico y social de un país. Argentina es un país que, hoy por hoy, termina investigando gratis para países desarrollados. Podemos seguir con ese modelo o construir un modelo soberano, autónomo y que nos permita desarrollarnos, para lo cual deberían empezar a hacerse las cosas de otra manera e invertir en capacidad de cálculo.

– Imagino que este no es el único ámbito que se ve perjudicado por no tener un sistema de Computación de Alto Desempeño…
– Claro que no. En primer lugar, yo creo que es imposible ejercer la soberanía en este siglo, sin poder de computación. Si una entidad -ya sea un Estado, una empresa o un individuo- no tiene poder de cálculo, está aislado de la sociedad. Y esto se ve de una manera muy simple en la diversidad de posibilidades que brinda un smartphone en relación a una calculadora, por ejemplo. Una empresa con capacidad de cómputo va a poder optimizar los costos en todas sus áreas, ofrecer a sus colaboradores mejores condiciones de trabajo y servir a sus clientes con precios más competitivos. A nivel país, lo que representa eso, en gran medida, es la informática paralela, o sea, es la simulación numérica en ámbito científico. Te doy un ejemplo simple. El cálculo del pronóstico meteorológico, sumamente necesario en un país que produce commodities, como el nuestro; influye directamente en la capacidad productiva del complejo agroindustrial. Y esto depende enteramente de la capacidad de cálculo, porque mientras mayor es tu capacidad de cálculo, menor es el mallado que podés hacer. Si vos podés calcular tu pronóstico dividiendo el territorio argentino en cuadrados de 50 km² -porque tu capacidad de cálculo no te permite calcular más que eso- seguramente vas a obtener pronósticos menos precisos y fiables que si tenés la capacidad para dividir el territorio en cuadrados de 1 km² . Ahora, un boletín meteorológico de calidad, beneficia no solo a los productores rurales, sino al sistema logístico, a la industria que produce maquinarias para trabajar los campos, a los contratistas que ofrecen sus servicios, etc. Es decir que el valor agregado de tu economía crece exponencialmente.
Los beneficios pueden verse en innumerables áreas. Personalmente conozco y te puedo mencionar, además del área de meteorología, el área de simulaciones de perforaciones petrolíferas: antes se perforaba para ver si había o no petróleo, ahora se hacen simulaciones y se perfora solamente en los sitios que más probabilidades tienen, bajando enormemente los costos. En lo que es producción industrial, se puede simular el comportamiento de un nuevo automóvil o de un avión. En la producción de fármacos se pueden simular las interacciones entre diferentes moléculas sin tener que invertir tiempo y dinero realizando los experimentos. Entonces, es una cuestión fundamental, más allá de cualquier división ideológica, tener capacidad de cómputo. Si nosotros queremos participar en el concierto de las naciones, queremos comerciar, intercambiar bienes y servicios, necesitamos tener los instrumentos que nos permitan generar valor y adquirir bienes. Hoy nadie puede producir bienes de calidad a un precio competitivo si no tiene poder de cómputo.
Es decir que el HPC y la simulación numérica deberían ser una política de Estado de todos los países del planeta, independientemente de su situación económica.

– Pero ¿qué inversión se necesita? ¿Argentina está en condiciones de afrontarla?
– Para empezar, está demostrado que el beneficio de la inversión que se requiere tanto en equipamiento como en recursos humanos, se multiplica, en el peor de los casos por 12 y en el mejor por 40 o hasta 45. Es decir que un Estado que hace una inversión de, supongamos, 100 millones de dólares en computación de alto desempeño, en 5 años (que es la vida útil de un equipo) recupera entre 1200 millones y 4000 millones de dólares. Es decir que no hay mejor inversión y la prueba está en que todos los países industrializados invierten masivamente en esto. No invierten más porque no disponen de más personal capacitado. En eso Argentina tiene una ventaja comparativa que es la gente capacitada, con niveles de salario relativamente bajos a nivel internacional; es decir que la única inversión que le falta es la de equipos y datacenters. Si no me equivoco, hoy Cordoba podría albergar en el nuevo datacenter de la UNC una supercomputadora que esté entre las 500 más potentes del planeta invirtiendo entre 15 y 20 millones de dólares que, en el caso de Argentina, representa aproximadamente el 0,01 % del gasto público anual. Argentina tiene todo lo que hace falta.

Serafín al servicio de Y-TEC.

La empresa de investigación y desarrollo para la industria energética contrató los servicios del Centro de Computación de Alto Desempeño (CCAD) de la Universidad Nacional de Córdoba.

Speedup de la solución

El CCAD comenzó a brindar servicios de alto desempeño a Y-TEC, la empresa de tecnología de YPF y el CONICET. Esta compañía es la principal empresa de investigación y desarrollo para la industria energética de Argentina y contrató los servicios del CCAD con el fin de desplegar en Serafin su plataforma de modelado y simulación de estimulación hidráulica y mecánica de rocas, Y-FRAC®, y aplicarla al estudio de los reservorios de interés. Esta plataforma está especialmente diseñada para correr en paralelo en clusters de alto desempeño.
El servicio brindado desde el CCAD a Y-TEC implica un doble desafío, en términos de infraestructura y también de know how. Por un lado, esta simulación involucró hasta ahora un máximo de 32 de los 60 nodos que componen a Serafín, siendo la simulación más grande que corrió dicha supercomputadora, con un total de 2048 cores. Además, a lo largo del trabajo de adaptación se consiguió que el escalado en términos de cores, se viera reflejado también en un aumento proporcional de la velocidad de cálculo (ver Gráfico). Esto demuestra que, efectivamente, Serafín funciona como un todo, no como una colección de computadoras desconectadas, y esto es gracias a su red de interconexión de alta velocidad y baja latencia.
Por otro lado, la complejidad de los procesos que se llevaron a cabo requirió la instalación de diversas bibliotecas como PETSc, y la solución de bugs. En esta etapa de depuración, el CPA-CONICET Carlos Bederián colaboró estrechamente con el equipo de desarrollo de Y-TEC para que su plataforma de simulación alcanzara un funcionamiento óptimo.

 


La implementación del stack MPI realizada por el Open MPI Project incluye la posibilidad de utilizar el estandar Open UCX para comunicaciones de alta velocidad y baja latencia. En esta plataforma, que hace uso de todas las capacidades del hardware subyacente, algunas cosas cambian. En este caso había un problema en el código de Y-FRAC que impedía el buen funcionamiento bajo esta combinación OpenMPI+UCX. El campo tag utilizado en las comunicaciones está limitado a 24 de los 32 bits que tiene en la definición del estándar. El CPA-CONICET Carlos Bederián, ató cabos y pudo asesorar al personal de Y-TEC para subsanar este inconveniente. El software estaba usando tags por fuera del rango de 24 bits lo cual producía resultados incorrectos.


Esta satisfactoria experiencia abre una etapa de fructífera cooperación entre una empresa nacional de base científica y un centro de cómputos de una Universidad Nacional, pública, ubicada en la provincia de Córdoba. Pero, además, muestra que el CCAD es un centro con una altísima capacidad no sólo de cómputo, sino también de adaptabilidad a diversas demandas, tanto del sector científico como empresarial e industrial.

Serafín se amplía y vuelve a romper récords.

El CCAD recibirá el mayor monto otorgado por el SNCAD en esta convocatoria para ampliar el cluster Serafín que sigue rompiendo marcas en horas core entregadas

El Sistema Nacional de Computación de Alto Desempeño (SNCAD) otorgó al Centro de Cómputación de Alto Desempeño (CCAD, UNC) un subsidio por U$S 50.000 para la ampliación del Cluster Serafín, siendo el mayor monto otorgado a proyectos en esta convocatoria. Junto a una contrapartida de U$S 10.000 que aportará la Secretaría de Ciencia y Técnica de la Universidad de Córdoba (SeCyT-UNC) para Sistemas Nacionales, el dinero asignado se utilizará para la adquisición de 2 nuevos chasis con 8 nodos. Estos se añadirán a los 60 nodos que posee Serafín en la actualidad.


Dicha ampliación implicará un incremento de 14% de poder de cómputo. “Esperamos poder ejecutar rápidamente y pedir 8 nodos más para llenar las bocas del switch infiniband. Con esto ya terminaríamos de armar Serafín que sigue batiendo records”, comenta Nicolas Wolovick, director del CCAD. Durante mayo, con 2.282.244 horas core, se sobrepasó la marca que se había alcanzado en abril en cantidad de horas core entregadas.
Finalmente, Wolovick señala que “AMD LatAm sigue apostando a Serafín como computadora insignia de su línea EPYC y por lo tanto realizará el mismo descuento sobre los procesadores. Este descuento redunda en un 50% más de desempeño por el mismo monto.”

Resolución del Financiamiento de SNCAD

Proyectos aprobados

 

Rompiendo marcas

En el mes de abril Serafín produjo una cantidad récord de horas/core en el CCAD y, además, alcanzó su máximo porcentaje de uso.

Nombres por arquitectura del procesador. rome: Serafín, knl: Eulogia, bdw Mulatona, ivb: Mendieta Fase 2. Gráfico realizado en Julia por Juan Perotti.

El pasado mes de abril, Serafín obtuvo dos nuevas marcas. Por un lado, produjo 2.224.896 horas/core de cómputo, marcando un record absoluto de producción de un cluster en el Centro de Computación de Alto Desempeño de la Universidad Nacional de Córdoba. A manera de referencia en relación a la importancia de esta producción, sirve la comparación con la Iniciativa de Proyectos Acelerados de Cálculo (IPAC), lanzada cada año por el Ministerio de Ciencia, Tecnología e Innovación de la Nación.
En esta iniciativa, se otorgan a la comunidad científica y tecnológica, recursos computacionales de los centros integrales adheridos al Sistema Nacional de Computación de Alto Desempeño, a través de dos tipos de proyectos. En la última convocatoria se brindaron 3 Proyectos de avances decisivos con supercómputo (PADS), de 1.000.000 de horas de CPU cada uno y 6 Proyectos de cálculo (PDC), de entre 300.000 y 500.000 horas de CPU, por año, cada uno.
Es decir que Serafín, con este ritmo de trabajo, sería capaz de dar respuesta a 2 de los 3 PADS y, de yapa, a un PDC en un mes. “Esto demuestra la tremenda capacidad del nuevo cluster de la UNC, que está disponible para todo el sistema de ciencia y técnica del país. Pero también pone en evidencia la rapidez con la que avanza la supercomputación y el poder de cómputo de los nuevos clusters, que siguen al pie de la letra la ley de Moore; por lo que siempre debemos trabajar para seguir creciendo en este sentido”, señala Nicolás Wolovick, director del CCAD.
También abril marcó un récord en cuanto a su uso ya que se ocupó el 90% de su capacidad. El 10% restante no pudo ser aprovechado por no coincidir las necesidades y con la pequeña capacidad restante. Por su parte, Eulogia mantiene un 75% y Mulatona un 62% de ocupación promedio. “Hay que remarcar que Serafín entrega el doble de horas/core que Eulogia, pero en la práctica es mucho más, ya que los 64 núcleos de la arquitectura Knights Landing (knl) de Eulogia, rinden mucho menos que la arquitectura Zen2 (rome) de Serafín. Estimamos que es aproximadamente el doble, debido a un reloj mucho más elevado y a un ancho de banda a memoria mucho mayor”, explica Wolovick.

 

Las leyendas indican la arquitectura del procesador de los clusters y es lo que las indentifica: rome-Serafín, knl-Eulogia, bdw-Mulatona y ivb-Mendieta Fase 2.