El CCAD se hizo presente en el 15° Coloquio Industrial de Córdoba

El evento organizado por la Unión Industrial de Córdoba tuvo lugar el pasado 14 de septiembre y posibilitó el intercambio y discusión entre el sector privado, el público y el académico.

El Centro de Computación de Alto Desempeño (CCAD) de la UNC, participó en una nueva entrega del evento más importante del sector industrial de Córdoba. En dicho encuentro, se hicieron presentes autoridades gubernamentales, reconocidos académicos, destacados referentes de la industria y más de 600 empresarios y empresarias industriales de la provincia de Córdoba con el objetivo de debatir qué se necesita para propiciar el desarrollo económico y social del país.

En este marco, y casi al final de la jornada, se llevó a cabo el Panel “Tendencias Emergentes: Inteligencia Artificial, Hidrógeno y el Espacio” en el que participaron Nicolás Wolovick, director del CCAD; Álvaro Soldano, subgerente de Aplicaciones y Productos en la Gerencia de Observación de la Tierra de la CONAE y Julio Mateo, Economista y consultor de transición energética; con Gabriela Origlia, periodista Telefé Córdoba y corresponsal La Nación, como moderadora.

En dicho Panel, cada disertante expresó porqué el sector al que representa es estratégico en el desarrollo del país, pero también en la competitividad de las empresas. Al mismo tiempo, acordaron en que es necesario “subirse al tren” de estos avances tecnológicos si se quiere participar de una economía mundial con perspectivas de crecimiento nacional.

En relación al Hidrógeno verde, Julio Mateo expresó la importancia que tiene en diversos sectores económicos como la industria minera o la industria alimenticia, en diversos puntos de la producción. “El hidrógeno y su cadena de valor, es energía renovable pero es toda producción industrial encadenada que nos abre una oportunidad enorme en un sector dinámico”, aseguró. “El hidrógeno verde podría suplir a los combustibles fósiles en la generación de energía y también crear alternativas más eficientes y con una menor huella ecológica”, añadió.

Por su parte, Álvaro Soldano, historizó el desarrollo de la industria aeroespacial en el país y aseguró que en la actualidad constituye un área activa, en crecimiento y generadora de divisas para el país. “Los satélites permiten apuntalar a diferentes sectores y en eso se vienen empleando: servicio de agua potable, agro, minería, litio, monitoreo de plataforma marítima y otros sectores estratégicos, tanto dentro del país como internacionalmente”, comentó.

Finalmente, Nicolás Wolovick habló de las posibilidades y los desafíos que implican las nuevas tecnologías relacionadas a la Inteligencia Artificial. “El aprendizaje automático, más precisamente, es necesario para aumentar la competitividad de las empresas porque permite usar las computadoras para mejorar los procesos y también los productos con mayor rapidez y sin necesidad de hacer pruebas prácticas”, explicó. Y agregó que, en ese sentido, se creó localmente el NODO AI, donde convergen el sector público, el privado y la academia. Nos hemos puesto de acuerdo y trabajamos en conjunto para hacer crecer la IA en Córdoba y en el país, porque lo consideramos estratégico.

Desafíos del desarrollo de la IA

Por un lado, Wolovck señaló que existe una carencia de aceleradores de GPUs a nivel mundial por la grandísima demanda que genera el crecimiento de las IA. “La demanda está creciendo más rápido que la capacidad de cómputo de los procesadores, por ende se necesitan muchos más aceleradores de los que se pueden producir. En la actualidad demoran unas 53 semanas desde que se efectúa una compra en llegar, y esto es porque el mundo entero se está volcando al desarrollo de las IA”.

Por otra parte, el director señaló una seria dificultad en relación al gran consumo energético de las computadoras que llevan a cabo las tareas necesarias para mantener esta gran maquinaria funcionando. “Hay investigaciones en Suecia que indican que si continúa este crecimiento exponencial de las IA, con la ley de Moore, ya no va a haber energía que sostenga a los centros de computación. Y eso es un desafío que tiene que ver con las energías verdes pero también para nuestra ciencia porque tenemos que aprender a hacer más con menos, la eficiencia energética desde el hardware y el software”.

Por último, ante la pregunta de la moderadora frente al temor que tienen algunas personas de que las IA reemplacen a los seres humanos, Wolovick explicó que “la inteligencia artificial es diferente a la inteligencia humana. Hay muchos tipos de inteligencias y estamos ahora creando una nueva. Pero me parece que el Cuco está mal pensado, el Cuco está en los niveles de desigualdad. En este momento las empresas que son capaces de entrenar estos grandes mitos de la inteligencia artificial de los últimos años, chat GTP y esas cosas, son muy pocas en el planeta. La concentración del poder que se está dando gracias a la inteligencia artificial y todo lo que trae, me parece que es lo verdaderamente problemático. La IA va a ser una herramienta, que va a potenciar a los humanos, va a ser otro tipo de herramienta y va a mejorar la vida, sin dudas, pero hay que tener muchísimo cuidado con esas otras variables porque justamente, si nosotros no tenemos desarrollo local, en algún momento, así como nos quedamos sin el combustible de Europa del Este, también nos podemos quedar sin cómputo de esos países. Estos modelos toman muchísima energía y muchísimo trabajo de gente para ser entrenados. Por ahora nos lo están dando gratis, mañana no sabemos”.

“Tenemos nosotros la capacidad de entrenar nuestros propios modelos, con nuestras propias necesidades? No. En este momento, no. Y en eso sí hay que trabajar, se está trabajando en políticas sostenidas para el desarrollo de la IA, a nivel nacional, ya conté el caso local de lo que estamos haciendo. Pero bueno, como decía, en algo estamos más que de acuerdo los tres, es que el Estado tiene que sostener políticas, en espacial lo ha hecho, en energía lo ha hecho, y en educación lo ha hecho. Nosotros tres somos producto de la universidad pública y hace 50, 60, 70 años que se invierte muchísimo dinero. Y muchos de nosotros sabemos que Argentina tiene que ver con una educación de altísima calidad y pública. Entonces me parece que en ese sentido es un común denominador de estas cosas, continuar con las políticas sobre todo en las temáticas donde está claro que van a ser más que importantes, como son estas tres a futuro.”, concluyó Wolovick.

Ver el Panel completo

Alejandro Silva participa de Escuela de HPC en Barranquilla

El prestigioso ICTP de Trieste apuesta a diversificar geográficamente la formación de recursos humanos en tecnologías, fundamentos y prácticas para el desarrollo científico. Alejandro Silva, CPA CONICET con lugar de trabajo en CCAD, fue becado y está participando de esta Escuela.

El ICTP (International Center for Theoretical Physics) es un instituto que promueve la ciencia del más alto nivel para países en vías de desarrollo. A través de sus Escuelas de Verano (SMR) realiza capacitaciones intensivas con prácticas, dictadas por equipos de primer nivel. En ellas estudiantes de doctorado e investigadoras/es se reúnen durante dos semanas con un régimen de tiempo completo y asi poder estrechar lazos entre las diferentes comunidades que representan y avanzar en temas específicos.

Alejandro Silva se incorporó al CCAD en agosto de este año, se presentó para el «3rd Latin American Introductory School on Parallel Programming and Parallel Architecture for HPC» | (smr 3872) y quedó seleccionado con beca completa incluyendo el viaje.

La escuela se está desarrollando en la Universidad Simón Bolivar de Barranquilla, y los docentes son:

  • S. Di Gioia, ICTP, Italy.
  • I. Girotto, ICTP, Italy.
  • A. Kohlmeyer, ICTP/Temple University, USA.
  • J.A. Leyva Rojas, Simon Bolivar University, Colombia.
  • J. Montoya, Universidad de Cartagena, Colombia.
  • E. F. Posada Correa, Temple University, USA.

 

Por Nicolás Wolovick
Director del CCAD-UNC

Artículo de tapa en Nature con cómputo en CCAD

El paleontólogo Martín Ezcurra corrió análisis de filogenia en las computadoras del CCAD para un artículo que terminó publicado en la tapa de la revista Nature del 17 de agosto de 2023.

En septiembre de 2022 el Paleontólogo Martín Ezcurra nos escribía:

«Estimado Nicolás Wolovick: soy Martín Ezcurra, paleontólogo del CONICET-Museo Argentino de Ciencias Naturales en Buenos Aires. Estoy averiguando porque necesito realizar un análisis filogenético de inferencia Bayesiana (con el programa MrBayes) y requiere mucho tiempo computacional. Comencé a correr el análisis en mi computadora de escritorio y ya va a llegar casi a una semana y parece estar lejos de terminar. Entonces mi consulta es si su cluster está solo disponible para usuarios de la UNC o si está abierto también para otras instituciones? Muchas gracias, Martin»

En un mes ya estaba corriendo en una workstation poderosa donde nos asociamos el CCAD y FAMAF para tener 48 núcleos Zen3, 128 GiB DRAM DDR4 y 3.4 TiB de NVMe 4.0.

El resultado fue más que positivo y en pocas jornadas obtuvo los resultados que le hubieran tomado meses en su computadora personal. Se publicó en Nature (620)7974.  El trabajo fue reseñado en en los portales más influyentes del planeta como el NYT.

La clave no fue el poder de cómputo o la capacidad técnica en HPC, si no atender las necesidades básicas de los investigadores de Ciencia y Técnica del país, algo que seguiremos haciendo porque está en nuestro ADN: satisfacer las necesidades de cómputo científico y tecnológico de la envergadura que sean.

 

Nicolás Wolovick
Director del CCAD-UNC

Divulgación

Serafín fue refrescada en hardware y software

Una falla de fabricación de los chips de RAM de Serafín derivó en un recambio por parte del fabricante de más del 70% de la memoria. En estos 43 nodos la memoria pasó de 128 GiB a 256 GiB. Se aprovechó la parada total para hacer una actualización de software completa.

«Uncorrectable ECC»
En febrero de 2022 empezamos a tener reportes de errores simples de RAM (corregibles) y algunos dobles (reinicio). Luego de descartar problemas en la calidad del suministro eléctrico, y comprobar que no había grandes fuentes de RF que pudieran meter ruido, empezamos a realizar recambio de los módulos que iban fallando, ya que no había correlación espacial ni temporal alguna de las fallas. Los errores aparecen de esta forma en la BMC, donde todos los que son errores incorregibles implica un reinicio del nodo.

 

 

 6 | 03/23/2022 | 10:22:35 | Memory | Uncorrectable ECC (@DIMMG1(CPU1)) | Asserted
 7 | 04/05/2022 | 14:46:37 | Memory | Uncorrectable ECC (@DIMMG1(CPU1)) | Asserted
 8 | 04/05/2022 | 16:24:33 | Memory | Uncorrectable ECC (@DIMMG1(CPU1)) | Asserted
 9 | 04/14/2022 | 17:52:50 | Memory | Correctable ECC (@DIMMH1(CPU1)) | Asserted
 a | 04/14/2022 | 17:52:50 | Memory | Uncorrectable ECC (@DIMMG1(CPU1)) | Asserted
 b | 04/14/2022 | 17:52:50 | Memory | Correctable ECC (@DIMMF1(CPU2)) | Asserted
 c | 04/21/2022 | 00:37:56 | Memory | Uncorrectable ECC (@DIMMG1(CPU1)) | Asserted
 d | 04/21/2022 | 14:19:42 | Memory | Uncorrectable ECC (@DIMMG1(CPU1)) | Asserted
 e | 04/22/2022 | 14:34:10 | Memory | Uncorrectable ECC (@DIMMG1(CPU1)) | Asserted
 f | 05/17/2022 | 12:31:57 | Memory | Uncorrectable ECC (@DIMMG1(CPU1)) | Asserted
12 | 05/23/2022 | 13:12:16 | Memory | Uncorrectable ECC (@DIMMG1(CPU1)) | Asserted
13 | 05/28/2022 | 00:48:29 | Memory | Correctable ECC (@DIMMD1(CPU1)) | Asserted
14 | 05/28/2022 | 00:48:29 | Memory | Uncorrectable ECC (@DIMMG1(CPU1)) | Asserted

En octubre de 2022 enviamos 30 módulos 8GB 1Rx8 PC4-3200AA-RD1-12. En marzo de 2023 enviamos 65 módulos más y sin prisa, pero sin pausa, la tasa de fallo iba en aumento. En mayo de 2023 nos avisan desde Supermicro que un lote de memoria con chips Hynix tenía una error de difusión que acumulaba.

El 28 de junio, Rodrigo Díaz el FAE de Supermicro nos decía: «como resultado del Failure Analysis hecho en los DIMMs que fallaron anteriormente y tras negociaciones que sostuvimos con el proveedor la acción inmediata que tomaremos es reemplazar 699 DIMMs de 8 GiB del total de 960 que tienen actualmente por 699 DIMMs de 16 GiB. El problema de manufactura durante el Photoresist Strip Process, genera una falla en el contacto bajo el M0C, este fallo hace que durante los ciclos de uso de la memoria las variaciones normales de temperaturas, sin necesidad de llegar a picos térmicos, se pierda cada vez más el contacto entre los componentes, lo que en un plazo indeterminado conduce a una completa falta de contacto y a su vez dará errores Multi Bit«.

El recambio
Con las 688 memorias para los 43 nodos y 11 módulos más para reemplazo en la mano, el viernes 4 de agosto se empezaron a drenar las colas de trabajos y el lunes con la computadora ya vacía, los 3 CPA CONICET que trabajan en el CCAD movieron los 960 módulos de RAM DDR4 que tiene Serafín, cambiaron las 60 pilas de las placas madres y sopletearon todos los nodos para eliminar polvo de yeso.

Carlos Bederián, Alejandro Silva y Marcos Mazzini entraron al UNC Data Center temprano a la mañana y salieron cuando el sol ya no estaba. Algo que varios estimábamos que iba a tomar tres días como mínimo, se hizo en uno solo.

A partir del martes empezó un trabajo aun más largo y preciso. Había dos necesidades urgentes de actualización, una cambiar el kernel por ZenBleed (24 julio 2023) y la otra por la salida de la última versión del compilador AOCC, (4 agosto 2023). También era necesario actualizar el software de las 3 computadoras que componen el BeeGFS de Serafín. Cambiar el kernel implicó pasar a Rocky 8.8, cambiar el compilador implicó rehacer todo el stack de software. En definitiva se reinstaló todo Serafín de cero.

Luego de 10 días de parada, el resumen fue:
  • Subir de 128 GiB a 256 GiB de RAM los primeros 43 nodos.
  • Actualizar el sistema operativo de la cabecera y nodos de cómputo a Rocky@8.8.
  • Actualizar los compiladores las versiones más nuevas disponibles: aocc@4.1.0, gcc@12.3.0.
  • Actualizar las versiones de las aplicaciones instaladas: gromacs@2023.2, lammps@20230802, nwchem@7.2.0, quantum-espresso@7.2.
  • Actualizar el software del sistema de almacenamiento distribuído del cluster (BeeGFS).
La máquina recuperó la confiabilidad y podrá producir más horas/core por mes. Nos queda ir a dejar las pilas usadas a algún punto de acopio.

por Nicolás Wolovick
Director del CCAD-UNC

HPC: inversión y soberanía

Federico Stasyszyn y Dante Paz, miembros del Directorio del CCAD, participaron en una entrevista en el podcast “El Bestiario de Internet”, de Fundación Vía Libre, y conversaron acerca de la importancia y dificultades de lograr una soberanía de cómputo.

Durante una distendida charla, Federico Stasyszyn y Dante Paz, miembros del Directorio del Centro de Computación de Alto Desempeño (CCAD, UNC) e investigadores del CONICET en el Instituto de Astronomía Teórica y Experimental (IATE, CONICET-UNC), exploraron el panorama local y mundial en relación a la High Performance Computing (HPC) o Sistemas de Computación de Alto Rendimiento.
“La definición sobre qué es una supercomputadora, es dinámica, va cambiando, pero básicamente refiere a un conjunto de computadoras que se pueden comunicar entre sí y pueden hacer cálculos mucho más importantes de los que uno podría hacer en una computadora doméstica y, hacer estos cálculos de manera separada conectado a una red de alta velocidad y poder juntar estos resultados parciales y obtener un resultado concurrente, es decir completo. Pero de manera práctica, para definir qué es y qué no es una supercomputadora, la comunidad ha zanjado la discusión a través del TOP500, una lista de las supercomputadoras más grandes del mundo, es decir, los equipos que son capaces de realizar el mayor número de operaciones matemáticas por segundo”, define Dante Paz.
Argentina no cuenta con ninguna supercomputadora que ingrese en ese ranking, a pesar de las inversiones que, con sus falencias, se vienen haciendo en los últimos años. Por el contrario, aquellos países que han logrado desarrollar su economía y su sistema científico en los últimos años, han impulsado también su crecimiento en esta área. Un buen ejemplo de esto es el de China que, según comentó Soldán, conductor de “El Bestiario de Internet” en 1996 tenía sólo una supercomputadora en el TOP500 -en el puesto 298- y hoy tiene 168, dos de ellas en el TOP10, ocupando los puestos 4 y 7. Este cambio fue coherente con el crecimiento y desarrollo de ese país a nivel general.
En relación a esto, Federico Stasyszyn expresa que “la cantidad de países que tienen muchas supercomputadoras en el TOP100 es altísimo, ya que cuando un país empieza a invertir en tecnología, empieza a crecer el requerimiento de cómputo, ya sea para abrir nuevos campos, investigar cosas que no se pueden investigar de otra forma, o para reducir costos en ciertas aplicaciones”. La pregunta que hacía, entonces, Soldán y que parece muy pertinente hacernos, es si es posible para un país como el nuestro, entrar a este ranking. “No es suficiente entrar al TOP500, como si fuera ganar un mundial, sino que es una política que requiere mucho trabajo de capacitación y mantenimiento que no tiene sentido hacer sólo por un año. Son recursos, investigaciones que se pierden. Entonces, si bien cuesta llegar hasta ahí, hay que mantenerse. Argentina no está en ese top, se está preparando ¿Tenemos los recursos humanos? ¿Tenemos los equipos? ¿Tenemos investigadores que le sacarían provecho? No sé. La capacidad humana sí, pero hay que apuntalar todo el sistema con una política pública constante y me parece que todavía estamos verdes en eso”, responde Federico.
Dante Paz agrega que el ciclo de no mantener la inversión es muy costoso, quita recursos humanos que en momentos complicados se ven obligados a emigrar o deben cambiar la línea de investigación porque no tienen la capacidad de cómputo necesaria para seguir avanzando en la línea en la que venían. “Se tiende a pensar en las supercomputadoras como en un gran microscopio, como un equipamiento de gran envergadura y nada más. Pero al hardware de HPC hay que pensarlo como si fuera perecedero, la obsolescencia es voraz, al poco tiempo deja de ser competitivo por el propio avance de la industria”.

HPC: una gran inversión

Este tipo de computadoras tienen una vida útil muy corta, la capacidad de cómputo o el rendimiento energético va decreciendo comparativamente y en 5 años se vuelven obsoletas. “Entonces existe la necesidad continua de ir manteniéndolas, por eso existe el TOP500, es la forma en la que se van auto midiendo y auto exigiendo las diferentes supercomputadoras para seguir siendo competitivos”, explica Federico.
Sin embargo, hay muchos capitales privados en HPC y eso se da porque es una de las inversiones más rentables a nivel mundial. Muchos son los ejemplos que permiten afirmarlo: la industria farmacéutica que puede probar fármacos a través de simulaciones o, en relación a la energía eólica con plataformas marítimas donde las simulaciones permiten calcular cómo debe construirse un molino que se encontrará sobre una base que se mueve por el oleaje. Se ahorran millones de dólares por poder ensayar diversas soluciones mediante simulaciones, en lugar de hacerlo en la práctica.
Pero, además, los equipos rinden frutos, superando los costos iniciales muy rápidamente. Según explicó Dante en la entrevista, la última computadora que se compró en el CCAD fue Serafín y costó U$S 386.000. En menos de dos años, si se tiene en cuenta que no sólo generó recursos por servicios a empresas sino también que la Universidad ahorró mucho dinero en pagos que de otro modo debería haber realizado a otras compañías para acceder a supercomputadoras, la inversión inicial se recuperó con creces. “Entonces, a la obsolescencia no hay que pensarla como un problema sino como parte del proceso que te permite con el propio rendimiento, ir haciendo inversiones cada vez mejores”, concluyó Paz.

Los beneficios de la HPC, tal como se vio en el CCAD, impactan mucho más allá de lo económico. “El impacto de Serafín ha sido espectacularmente bueno para la comunidad científica porque la mismo cambio en la arquitectura, la estructura, los detalles de esta supercomputadora que desarrolló AMD, nos ha servido mucho porque, por ejemplo, la transferencia de memoria que se multiplicó por 8, me posibilitó desarrollar un código para estudiar vacíos cósmicos que antes no podía calcular. Durante la pandemia que Serafín estaba siendo ensamblada recién, la gente de ciencias químicas usó otros equipos que teníamos para simular cómo fármacos ya aprobados interactuaban con modelos del virus del COVID que había en ese momento. Y eso fue espectacular porque todos de manera solidaria aportamos recursos para encontrar candidatos a ser probados en laboratorio, como modo de aportar en ese momento crítico. Pero, de todos modos, siguen siendo clusters chicos si se compara con los recursos disponibles en otros centros de investigación. Entonces es una sensación agridulce, siempre uno quiere más”, comenta Dante.
Y este querer siempre más puede refrendarse con números, como una necesidad “Hace un tiempo hicimos una convocatoria y les pedimos a los grupos de investigación de la UNC que presenten proyectos para los cuales necesitarían poder de supercómputo. Lo comparamos con la capacidad que tenemos en el CCAD y la cuenta nos dió que Córdoba necesita un factor 10, es decir que necesitamos 10 Serafín para poder cubrirla necesidad de computo que hay en nuestra Universidad. Por eso Serafín está ocupada al 100%, 24/7”, asegura Paz.

HPC y desarrollo

Conformar un cluster implica desarrollo científico, tecnológico, industrial y también creación de una fuente de trabajo que insume y también forma recursos humanos de altísimas capacidades técnicas. “El HPC es transversal, estás ayudado a toda la ciencia, a toda la ingeniería aplicada, de optimización de procesos, la verdad es que es super necesario”, asevera Dente Paz.
Y sus beneficios van más allá aún, redundando en la tan mentada soberanía. Tal como desarrolló Federico durante la charla, tener capacidad de cómputo permite no sólo hacer preguntas, sino obtener respuestas a nuestros propios problemas, sin esperar a que alguien en algún lugar del mundo se haga una pregunta similar y nos dé una respuesta que de todos modos no estará adecuada a nuestras necesidades “Tenemos que tener la posibilidad de responder nuestras propias preguntas y no tener que estar esperando a que salga algún artículo en algún lugar del mundo que nosotros podamos modificarlo para poderlo aplicar”, asevera el investigador.

Y esto que parece tan abstracto, tiene a veces demostraciones muy concretas y palpables. En ese sentido, Dante Paz comentó que usar equipos extranjeros, por ejemplo uno muy grande que instaló Estados Unidos en Chile para un proyecto de astronomía, implica que sólo está disponible para ciertos usos siempre asociados a ese proyecto pero, además, significa que todo lo que se ingrese a esa computadora puede ser utilizado por el país que lo financia. “Cuando vos accedés a este equipo el primer mensaje que te aparece es: ‘Este equipo es propiedad de la Agencia de Energía de Estados Unidos, por lo tanto todos los datos o software que usted tenga en este lugar va a ser escrutado por cualquier Agencia Gubernamental de los Estados Unidos. Y todo lo que usted produzca acá, tenga en cuenta que es propiedad de los Estados Unidos’. Así comienza, cuando vos te logueas. Es como que de pronto te pega la soberanía en la cara; San Martín, Belgrano, los jujeños con su éxodo, todo eso para qué si seguimos siendo un país colonizado en ese sentido. Es triste”, concluyó Paz


Para escuchar el programa completo (que está buenísimo) pueden encontrarlo en spotify o en podacastadict 

El CCAD en una competencia Internacional

Un equipo integrado por miembros del CCAD, estudiantes de la Facultad de Matemática, Astronomía y Física (FaMAF, UNC) y de la Facultad de Ingeniería (UCC), fue admitido para formar parte de la IndySCC.

La IndySCC es un evento que comparte los objetivos del SCC pero con énfasis en educación e inclusión, dirigido especialmente para equipos con poca experiencia. Los equipos compiten de manera remota utilizando un hardware provisto por la industria de HPC, a través de una experiencia educativa. Una vez finalizada esta primera etapa, comienza un concurso de 48 hs, durante la semana previa al SC, como culminación de la experiencia y el conocimiento adquirido por los equipos en los meses previos.

Supercomputing (SC) es la Conferencia y Exhibición de HPC más grande del mundo. Este año se hace en Denver, EEUU. SCC es la competencia más importante que se realiza dentro de SC y son una docena de equipos que construyen un cluster y tratan de correr aplicaciones lo más eficientemente posible. Los grandes fabricantes los esponsorean y les dan los equipos. Están una semana trabajando en eso. La IndySCC es el primer paso para poder acceder a ese mundo, por eso es tan importante para nosotros que nos hayan aceptado como participantes”, explica Nicolás Wolovick.

Desde el CCAD postularon a un equipo integrado por el coach Marcos Mazzini (CPA del CCAD), Nicolás Wolovick (director del CCAD), Lucia Martinez Gavier (estudiante de FaMAF-UNC), Marcos Tolcachir (estudiante de FaMAF-UNC), Alejandro Ismael Silva (CPA del CCAD y estudiante de FaMAF-UNC), Luigi Finetti (estudiante de FaMAF-UNC), Juan Ignacio Folco (estudiante de la Facultad de Ingeniería-UCC) y Lara Kurtz (estudiante de FaMAF-UNC).

Entre los puntos a favor que determinaron su aceptación dentro de la IndySCC, los evaluadores resaltaron la capacidad para aprovechar de manera creativa y eficiente los recursos, la diversidad de conformación del equipo, la inclusión de mujeres a pesar de la escasa representación femenina en STEM en el país y la incorporación de personas con gran expertise.

“Estamos muy contentos con esta oportunidad porque, sin dudas, será una experiencia muy enriquecedora en la que podremos aprender y adquirir nuevas capacidades pero también ganar visibilidad en nuevos espacios y crear vínculos con colegas de todo el mundo”, concluye Wolovick.

Acelerando un código de simulación de crecimiento de tumores

Jerónimo Fotinós y su director Lucas Barberis, están trabajando sobre simulaciones de crecimiento de tumores cancerígenos in vitro. Dentro de su doctorado Jerónimo pasó el código de 2D a 3D y se encontró con que necesitaba una gran cantidad de cómputo. Carlos Bederián, CPA Principal del CCAD, aportó su experiencia y aceleró el código por 39 veces.

Recientemente Carlos Bederián  aportó mejoras al código Python de Jerónimo Fotinós, estudiante del Doctorado en Física de FaMAF-UNC, dirigido por Lucas Barberis. La aceleración de código que logró el CPA de CONICET fué brutal: logró mutiplicarlo por 39. Es por eso que entrevistamos a Jerónimo, para que nos cuente de qué se trató y qué habilita esta aceleración

Nicolás Wolovick: ¿Qué hace el código?
Jerónimo Fotinós
: El programa simula crecimiento de tumores cancerígenos in vitro. En particular, modelamos computacionalmente ensayos de tumoresferas: un modelo biológico para el estudio del cáncer, enfocado en las características y respuesta a terapias de las Células Madre Cancerosas (CMC).
Concretamente, el programa simula la reproducción y proliferación de células en un ensayo de tumoresferas con dos especies celulares: células madre y células diferenciadas. El primer objetivo es obtener la distribución espacial de las primeras, contrastarla con datos experimentales y modelarlas matemáticamente.

NW: ¿Por qué es importante?
JF: El programa nos permite evaluar si existe un umbral para la capacidad de autoreplicación de las CMC, tal que, por encima de este valor, logren proliferar en la periferia del tumor. Esto puede relacionarse con una transición de percolación en el modelo como sugieren los resultados preliminares. Que una CMC -que suelen ser muchas menos que sus contrapartes diferenciadas- consiga o no ubicarse y mantenerse en la periferia del tumor, tiene fuertes implicancias en la resistencia a las quimio/radioterapias como así también en el entendimiento del fenómeno de metástasis.

NW: ¿Ya tienen publicaciones?
JF: Todavía no hay publicaciones al respecto, empecé a trabajar en esto en abril. Sí hay una publicación de Lucas al respecto, pero no es con este código (él usó un código en NetLogo) para el caso 2D que no es biológicamente relevante pero sirvió para organizar lo que hay que hacer. El código que optimizó Carlos es el que desarrollé yo, lo denominé tumorsphere_culture, permite extender el problema a 3D -como ocurre con las tumoresferas experimentales- y realizar cálculos que posibilitan describir diferentes posiblidades de la progresión tumoral.

NW: ¿Cómo llegaron a contactarse con Carlos? Me comentaron que les quedaban cortos los 2 días de tiempo límite en Serafín.
JF: Yo le consulté a Carlos sobre la posibilidad de correr durante más tiempo porque había escuchado que a veces en las vacaciones de invierno te dejaban, y él me habló del uso exclusivo a raíz de eso. Considerando que para realizar algunas aproximaciones matemáticas útiles, es necesario llegar a tener millones de células que representan unos 100 días de cultivo, y que el tiempo para calcuar un día crece exponencialmente, vamos a requerir a futuro más recursos. Además, esto es sólo la punta del témpano. Posteriormente el modelo deberá incluir otros tipos celulares, interacción específica con el medio, mecanismos internos de las células, entre otros, que van a aumentar drásticamente el tiempo de cálculo, incluso para sistemas relativamente pequeños.

NW: ¿Qué podrán hacer con el 39x que logró Bederián?
JF: Sin esa aceleración no era posible hacer corridas útiles en menos de dos días, así que antes que nada, la aceleración posibilitó la ejecución en los clusters. En segundo lugar, esta aceleración nos permite correr un número mayor de simulaciones con diferentes parámetros e incluir mayor cantidad de realizaciones de un mismo experimento para contar con valores estadísticos confiables. Esto último es central a la hora de medir los observables que requerimos para el modelado matemático.

NW: ¿Entendiste la lógica de los cambios que hizo Carlos? ¿Vas a poder aplicar estas estrategias para que tu código siga performante?
JF: Si, los entiendo y casi todos son cosas que incorporé desde el momento en que las vi en sus commits, porque era una cuestión de no saber que era más rápido hacer las cosas de ese modo. La única cosa de la que no estoy seguro es si las anotaciones de tipo (mediante typing) cambian la performance. Yo tenía entendido que no, pero quizás eso cambió ya. Pero para responder tu pregunta, sí, incluso en los cambios que estoy haciendo ahora, estoy pudiendo aplicar estas estrategias para que el código siga performante. En particular, el tema de almacenar vectores en una única matriz y que los objetos no guarden vectores, sino su índice en la matriz.

NW: ¿Qué desafíos quedan aún en el código?
JF: El desafío central que queda es que todavía requerimos una gran cantidad memoria. En el estado actual del código, no es posible aprovechar todos los cores de un nodo, porque la memoria del mismo se agota antes de terminar la simulación. En este momento estoy haciendo las modificaciones que creo necesarias para solucionar eso. Un segundo desafío sigue siendo la aceleración. Si bien la mejora respecto al original es enorme, todavía no permite correr 60 pasos, que representan 60 días experimentales, en 2 días. Este es el número mínimo de pasos que necesitamos simular de acuerdo a nuestras predicciones  (y muy posiblementa tengamos que simular más allá). Finalmente, como mencioné antes, a futuro necesitaremos incluir otros fenómenos para acercar más la simulación a la realidad (e.g., difusión) como así también mejorar el modo de registrar la información medida.

NW: Muchas gracias
JF: A ustedes y esperamos seguir avanzando juntos en este código.

Por Nicolás Wolovick, director del CCAD

Taller Usando Jupyter en CCAD

El miércoles 5 de julio, a las 10 h, el CCAD brindará un Taller sobre el uso de Jupyter: Julia, Python, R

Oscar Reula y Juan Perotti, ambos miembros del CCAD, brindarán el Taller Usando Jupyter en CCAD, el día miércoles 5 de julio a las 10 h, con modalidad mixta. Se dictará de manera presencial en el Laboratorio 28 de FaMAF y de manera remota usando el siguiente link https://meet.google.com/qzc-kctx-zos

Jupyter hace referencia a los lenguajes Julia, Python, R. Esta es la tecnología de notebooks para computación interactiva que se está empleado desde el CCAD, con el proyecto 2i2c y con el nuevo nodo de Serafín.

 

El CCAD tiene nuevo personal de apoyo

Alejandro Silva se incorporó al Centro de Computación de alto Desempeño de la UNC, como Personal de Apoyo a la Investigación (CPA) del CONICET.

 

Alejandro Silva es Analista en Computación y continua sus estudios para recibirse de Licenciado en Ciencias de la Computación en FAMAF (UNC). Se define como una persona inquieta y que siempre busca algo nuevo que hacer y aprender. Además, le gusta trabajar en proyectos que tengan repercusión en la sociedad. Desde el 1 de junio forma parte del CCAD.
La llegada al CCAD del CPA-CONICET Alejandro Silva es el esfuerzo de muchas y muchos actores. En abril de 2021, Nicolás Andruskiewitsch y Oscar Reula, el primero ex-director del CIEM y el segundo el ex-director del CCAD, acuerdan pedir un cargo CPA para el CIEM con lugar de trabajo en el CCAD-UNC.
El llamado a selección tuvo dos instancias ya que la primera quedó desierta. En julio de 2022, se elabora un orden de mérito y dos candidatos pasan el puntaje de corte, entre ellos Alejandro Silva.
El proceso continuó y gracias al apoyo de la Directora del CCT Córdoba, María Angélica Perillo, el Coordinador de la UAT, José Caballero, y el nuevo Director del CIEM, Jorge Lauret. El día 14 de febrero de 2023 se terminó el proceso administrativo.
En marzo el candidato que quedó primero en el orden de mérito no acepta la propuesta  por tener una más interesante económicamente, y se pasa al segundo en el orden de mérito, el Analista Alejandro Ismael Silva, que acepta y en mayo de 2023 se termina el proceso de alta.
Alejandro empezará a cobrar una Beca de Estadía Corta de parte del CONICET para que la espera del proceso de Alta Definitiva concluya.

«Este fue un proceso largo, de un poco más de dos años, pero que valió la espera. Alejandro, aun teniendo oportunidades en un mercado laboral global cobrando en dólares, eligió intentar trabajar con nosotros. Esperamos estar a la altura de sus expectativas», expresó Nicolás Wolovick, director del CCAD. Los CPA Carlos Bederián y Marcos Mazzini por su parte, lo necesitan casi con desesperación. La cantidad de trabajo que generan 4 clusters y más de 150 usuarios activos, muestra la gran capacidad técnica y profesionalismo que asombran a propios y extraños.

Serafín: 100.000 trabajos en menos de dos años

A 22 meses del inicio de operaciones del cluster más grande del CCAD, realizamos un nuevo balance, con saldo positivo.

 A menos de dos años desde que Serafín comenzó a operar en el Centro de Computación de Alto Desempeño, llegamos a los 100.000 trabajos ejecutados. Esto pone en evidencia, una vez más, que los recursos están siendo explotados al máximo de su capacidad.
Desde agosto de 2021 hasta la fecha, el mayor cluster del CCAD ejecutó un total de 44.580.163 horas-core, con un valor de U$S 0.01 cada una. Es decir que en estos 22 meses Serafín produjo U$S 445.801,63, superando su costo de compra, que fué de U$S 386.000. Si se tiene en cuenta que el tiempo de vida útil promedio de estos equipos es de 5 años, Serafín tendrá tiempo de sobra para generar beneficios que superen la inversión inicial y sus costos de funcionamiento. Por otra parte, el consumo energético aproximado fue de 348.282 KWh.

Finalmente, cabe destacar que, con el objetivo de que el costo de operación no recaiga íntegramente sobre las personas usuarias, hay muchas instituciones que aportan de diversas maneras para sostener el pleno funcionamiento del cluster, principalmente, la Universidad Nacional de Córdoba. Esto permite que puedan producirse una gran cantidad de publicaciones de excelencia, que de otro modo serían inaccesibles para muchos grupos; constituyendosé en una herramienta invaluable para la investigación científica. Además tiene la capacidad de generar colaboraciones con empresas de renombre, como Y-TEC, a través de convenios y prestación de servicios arancelados.