UNITEFA conforma la primera comunidad del Proyecto Catalyst en la UNC, a través del CCAD.

A partir de una colaboración académica se podrá acceder a cómputo interactivo en la nube y esto permite utilizar técnicas avanzadas de procesamiento de datos aplicados al desarrollo de las Ciencias Farmacéuticas.

 

Desde hace algunos meses, el Centro de Computación de Alto Desempeño (CCAD, UNC) participa de Catalyst Project, un proyecto que busca crear un servicio de cómputo interactivo para América Latina y África (ver más). En este marco, y a través del CCAD, la Unidad de Investigación y Desarrollo en Tecnología Farmacéutica (UNITEFA, CONICET-UNC) creó la primera comunidad en la UNC, dirigida por el investigador Mario Alfredo Quevedo.

UNITEFA es una unidad ejecutora del CONICET y la UNC, donde se llevan a cabo una gran diversidad de estudios relacionados con las Ciencias Farmacéuticas. “En ese contexto, se planean y ejecutan una gran diversidad de experimentos, lo cuáles generan alta cantidad de datos que requieren manejo y procesamiento adecuado a los fines de extraer/analizar las conclusiones correspondientes. En ese marco, la disciplina de Ciencia de Datos, constituye una herramienta muy valiosa en el nicho científico que ocupa UNITEFA” explica Quevedo. “Sin embargo, la mayor parte del personal no se encuentra entrenada en técnicas avanzadas de manejo y procesamientos de datos a escala media-alta, como así tampoco respecto de la automatización de workflows para análisis de rutina. En la actualidad gran parte del personal emplea las técnicas clásicas y de baja eficiencia para atender dicho procesamiento de datos”, agregó el investigador.

En ese contexto, un grupo de investigadores que poseen conocimientos en el manejo y procesamiento de datos empleando el lenguaje de programación Python, decidieron socializar estas habilidades. En el marco de un proyecto más amplio (más información) y con el objetivo de potenciar las capacidades del UNITEFA para el aprovechamiento de recursos de cómputo en la nube, se realizó una Jornada de Ciencia de Datos. Dicha jornada de capacitación estuvo orientada a investigadores/as, becarios/as y estudiantes que desempeñan sus tareas en el UNITEFA, con la finalidad de potenciar sus capacidades científicas a través del procesamiento de datos y el acceso a recursos de cómputo en la nube.

Según explican desde UNITEFA, esta tecnología “nos permite analizar nuestros datos experimentales con mayor capacidad, tanto en el tipo de análisis, como así también en el volúmen de datos que se pueden manejar. A esos beneficios hay que sumarle una mayor rapidez y facilidad de procesamiento una vez que se han programado los procedimientos requeridos”.


“El CCAD es parte del Catalyst Project, y además de haber generado esta primera comunidad, colaborará para desplegar el servicio de JupyterHub de 2i2c (https://2i2c.org/) en infraestructura propia, logrando asi la soberanía del cómputo. Alejandro Silva comenzó el pasado martes 17 de octubre, su pasantía en 2i2c, donde se entrenará para entender el flujo de trabajo y así ganar knowhow para en el plazo de un año poder desplegar desde el CCAD el servicio de cómputo interactivo en infraestructura propia dentro del UNC Data Center. Este es el objetivo planteado en colaboración con 2i2c y CCAD que por un lado le permitirá a 2i2c validar que es posible desplegar su servicio en nubes locales y por el otro lado dará a Latinoamérica mayor soberanía en el cómputo interactivo”, explicó Nicolás Wolovick.

SIMULACIONES QUE CAMBIAN PARADIGMAS: los líquidos ya no son incompresibles

Investigadores del Instituto Interdisciplinario de Ciencias Básicas (ICB, CONICET-UNCUYO), usando simulaciones realizadas en el CCAD, participaron de un trabajo internacional que creó líquidos con alta compresibilidad.

«La compresibilidad es la capacidad que tiene un material de cambiar su volumen ante un cambio de presión, y que da origen a aplicaciones tecnológicas en neumática e hidráulica. Es una propiedad inherente a todos los materiales, pero los líquidos son prácticamente incompresibles. No obstante, puede obtenerse un líquido compresible si se suspenden nanopartículas porosas con cavidades hidrofóbicas en una solución acuosa: al aplicar una presión externa suficiente, las moléculas de solución logran ingresar a las cavidades. Tal líquido pudo desarrollarse a partir de nanopartículas suspendidas en agua y en soluciones acuosas de metanol», explica Mario Del Pópolo, investigador del CONICET en el ICB y docente en la Universidad Nacional de Cuyo. 

«El material obtenido, además de ser compresible, se comportó como un amortiguador y pudo volver a su volumen original cuando se liberó la presión. Se observó además que si se agregan sales o metanol, se puede aumentar o disminuir, respectivamente, la presión necesaria para comprimir el sistema», agregó el científico.

El trabajo fue producto de una colaboración entre grupos experimentales y computacionales del Reino Unido y de Argentina. «En nuestro país, esta labor se llevó a cabo en el grupo de Simulaciones en Biofísica y Materia Blanda del ICB CONICET/UNCUYO. La mayor parte de las simulaciones y cálculos con los que contribuyó el equipo argentino se llevó a cabo en los clústeres Mendieta Fase 2 y Serafín del Centro de Cómputo de Alto Desempeño (CCAD) de la Universidad Nacional de Córdoba. Hubiera sido imposible emprender esta tarea, que insumió un gran tiempo de cómputo por la extensión de las simulaciones y el tamaño de los sistemas simulados, sin los recursos y la asistencia del CCAD«, expresó Del Pópolo.

A propósito de las posibles implicancias prácticas del trabajo, el científico comentó que estos materiales «todavía no tienen aplicaciones concretas, pero tampoco están tan lejos. Podrían usarse para fabricar amortiguadores, que son dispositivos que sirven para absorber impactos».

Finalmente, tal como se afirma en una nota aparecida en el portal de CONICET, «El estudio cambia el paradigma sobre la incompresibilidad de los líquidos y aporta datos sobre potenciales aplicaciones industriales que podrían estar relacionadas con la amortiguación o la absorción de impactos. Por lo pronto, los investigadores continúan trabajando para entender cómo funciona el proceso a nivel molecular. Nuestro trabajo es simular el proceso y el comportamiento de las moléculas adentro de este material. Seguimos trabajando en eso. Todavía quedan muchas preguntas por responder», concluye Del Pópolo.

Referencia bibliográfica

El CCAD participó de CARLA 2023

Durante la décima edición de la Conferencia Latinoamericana de HPC, miembros del CCAD participaron como disertantes en un workshop, dictando un tutorial y asistiendo a las diversas actividades que se ofrecieron en Colombia entre el 18 y el 22 de septiembre.

Los CPA del Centro de Computación de Alto Desempeño, Marcos Mazzini y Alejandro Silva, y el director, Nicolás Wolovick, viajaron a Cartagena, Colombia, para participar de CARLA 2023. Esta conferencia se realiza todos los años con el fin de proveer un foro que permita fortalecer el crecimiento de la comunidad del HPC en Latinoamérica a través del intercambio y difusión de nuevas ideas, técnicas e investigación.

El día lunes 18 tuvo lugar el tutorial “HPL for the Global South”, dictado por Marcos Mazzini y Nicolás Wolovick. «Fue interesante también participar como instructor de un tutorial y encontrarme con administradores de otros centros. Pudimos intercambiar visiones sobre las implicancias de algo tan técnico como instalar y ejecutar un benchmark pero dándole un enfoque de por qué en el norte global se cuestiona su utilidad mientras que para nosotros puede ser importante igual poder ejecutarlo eficientemente», expresó Marcos. Y añadió “por otro lado ofrecimos un entorno de Spack para instalar el benchmark HPL, así que todos los que participaron pudieron llevarse algo. Había muchos que no utilizaban Spack y les resultó de gran ayuda”.

El martes 19 se desarrolló el workshop “Good Practices in HPC Management” que coordinaron Nicolás Wolovick, Ivan Girotto (ICTP) y Ferndo Posada (Temple University College of Science and Technology). El objetivo del workshop era acercar a los encargados de administrar y coordinar los recursos, con los técnicos y expertos, para discutir tecnologías, casos prácticos y prácticas óptimas que permitan mejorar el aprovechamiento de los recursos disponibles en HPC, adecuándose a las realidades particulares. “Se hizo con una dinámica grupal, donde cada equipo tenía que responder una serie de consignas y a raíz de eso los grupos se conocieron, pusieron cosas en común sobre preguntas que tienen una respuesta particular para nuestra idiosincrasia cultural y nuestras particularidades económicas. El resultado fue muy positivo y además se generaron muchos vínculos, que era el principal objetivo”, describió Wolovick.

Con respecto a la experiencia en general, Marcos Mazzini contó que «es la primera vez que participo de esta conferencia. La verdad que me pareció muy positivo que la comunidad de HPC de Latinoamérica tenga un lugar de encuentro. No es una comunidad tan grande y todos nos encontramos con desafíos similares».

Por su parte, también significó la primera participación para Alejandro Silva, quien a partir de una beca ICTP de Trieste, está realizando una estadía en la Escuela de HPC Barranquilla. Gracias a esta experiencia pudo acceder a la conferencia como asistente. “Tuve la increíble suerte de que uno de los organizadores, Javier Montoya, además de darnos una clase muy interesante en el curso del ICTP, nos ofreciera becas a los estudiantes que quisiéramos asistir a CARLA. Fuimos 3 los que decidimos quedarnos más tiempo e ir, toda una aventura. Asistir a las charlas, tutoriales y workshops fue reencontrarse con los temas que vimos en el curso, pero, esta vez, aplicado a problemas y clusters reales, en el contexto latinoamericano”, expresa Silva.

“Esperamos con ansias CARLA 2024 que va a tener lugar en Santiago de Chile. Va a ser una gran oportunidad para seguir avanzando. CARLA pegó un salto muy fuerte este año, fue la edición que mayor concurrencia tuvo, y en 2024 voy a ser el Sponsors Manager, con el objetivo de que las vinculaciones del sector académico, el tecnológico y las empresas sean lo más fructíferas posible” comenta Wolovick.

“Planeamos también hacer una competencia de estudiantes en clusters y también planeamos que los vendors, traigan equipamiento para mostrar. Queremos que esto se transforme en una mini feria de HPC pensando en que el hardware para nosotros es casi lo más importante así que tiene que estar presente”, concluyó el director del CCAD, con miras a futuro.

El CCAD se hizo presente en el 15° Coloquio Industrial de Córdoba

El evento organizado por la Unión Industrial de Córdoba tuvo lugar el pasado 14 de septiembre y posibilitó el intercambio y discusión entre el sector privado, el público y el académico.

El Centro de Computación de Alto Desempeño (CCAD) de la UNC, participó en una nueva entrega del evento más importante del sector industrial de Córdoba. En dicho encuentro, se hicieron presentes autoridades gubernamentales, reconocidos académicos, destacados referentes de la industria y más de 600 empresarios y empresarias industriales de la provincia de Córdoba con el objetivo de debatir qué se necesita para propiciar el desarrollo económico y social del país.

En este marco, y casi al final de la jornada, se llevó a cabo el Panel “Tendencias Emergentes: Inteligencia Artificial, Hidrógeno y el Espacio” en el que participaron Nicolás Wolovick, director del CCAD; Álvaro Soldano, subgerente de Aplicaciones y Productos en la Gerencia de Observación de la Tierra de la CONAE y Julio Mateo, Economista y consultor de transición energética; con Gabriela Origlia, periodista Telefé Córdoba y corresponsal La Nación, como moderadora.

En dicho Panel, cada disertante expresó porqué el sector al que representa es estratégico en el desarrollo del país, pero también en la competitividad de las empresas. Al mismo tiempo, acordaron en que es necesario “subirse al tren” de estos avances tecnológicos si se quiere participar de una economía mundial con perspectivas de crecimiento nacional.

En relación al Hidrógeno verde, Julio Mateo expresó la importancia que tiene en diversos sectores económicos como la industria minera o la industria alimenticia, en diversos puntos de la producción. “El hidrógeno y su cadena de valor, es energía renovable pero es toda producción industrial encadenada que nos abre una oportunidad enorme en un sector dinámico”, aseguró. “El hidrógeno verde podría suplir a los combustibles fósiles en la generación de energía y también crear alternativas más eficientes y con una menor huella ecológica”, añadió.

Por su parte, Álvaro Soldano, historizó el desarrollo de la industria aeroespacial en el país y aseguró que en la actualidad constituye un área activa, en crecimiento y generadora de divisas para el país. “Los satélites permiten apuntalar a diferentes sectores y en eso se vienen empleando: servicio de agua potable, agro, minería, litio, monitoreo de plataforma marítima y otros sectores estratégicos, tanto dentro del país como internacionalmente”, comentó.

Finalmente, Nicolás Wolovick habló de las posibilidades y los desafíos que implican las nuevas tecnologías relacionadas a la Inteligencia Artificial. “El aprendizaje automático, más precisamente, es necesario para aumentar la competitividad de las empresas porque permite usar las computadoras para mejorar los procesos y también los productos con mayor rapidez y sin necesidad de hacer pruebas prácticas”, explicó. Y agregó que, en ese sentido, se creó localmente el NODO AI, donde convergen el sector público, el privado y la academia. Nos hemos puesto de acuerdo y trabajamos en conjunto para hacer crecer la IA en Córdoba y en el país, porque lo consideramos estratégico.

Desafíos del desarrollo de la IA

Por un lado, Wolovck señaló que existe una carencia de aceleradores de GPUs a nivel mundial por la grandísima demanda que genera el crecimiento de las IA. “La demanda está creciendo más rápido que la capacidad de cómputo de los procesadores, por ende se necesitan muchos más aceleradores de los que se pueden producir. En la actualidad demoran unas 53 semanas desde que se efectúa una compra en llegar, y esto es porque el mundo entero se está volcando al desarrollo de las IA”.

Por otra parte, el director señaló una seria dificultad en relación al gran consumo energético de las computadoras que llevan a cabo las tareas necesarias para mantener esta gran maquinaria funcionando. “Hay investigaciones en Suecia que indican que si continúa este crecimiento exponencial de las IA, con la ley de Moore, ya no va a haber energía que sostenga a los centros de computación. Y eso es un desafío que tiene que ver con las energías verdes pero también para nuestra ciencia porque tenemos que aprender a hacer más con menos, la eficiencia energética desde el hardware y el software”.

Por último, ante la pregunta de la moderadora frente al temor que tienen algunas personas de que las IA reemplacen a los seres humanos, Wolovick explicó que “la inteligencia artificial es diferente a la inteligencia humana. Hay muchos tipos de inteligencias y estamos ahora creando una nueva. Pero me parece que el Cuco está mal pensado, el Cuco está en los niveles de desigualdad. En este momento las empresas que son capaces de entrenar estos grandes mitos de la inteligencia artificial de los últimos años, chat GTP y esas cosas, son muy pocas en el planeta. La concentración del poder que se está dando gracias a la inteligencia artificial y todo lo que trae, me parece que es lo verdaderamente problemático. La IA va a ser una herramienta, que va a potenciar a los humanos, va a ser otro tipo de herramienta y va a mejorar la vida, sin dudas, pero hay que tener muchísimo cuidado con esas otras variables porque justamente, si nosotros no tenemos desarrollo local, en algún momento, así como nos quedamos sin el combustible de Europa del Este, también nos podemos quedar sin cómputo de esos países. Estos modelos toman muchísima energía y muchísimo trabajo de gente para ser entrenados. Por ahora nos lo están dando gratis, mañana no sabemos”.

“Tenemos nosotros la capacidad de entrenar nuestros propios modelos, con nuestras propias necesidades? No. En este momento, no. Y en eso sí hay que trabajar, se está trabajando en políticas sostenidas para el desarrollo de la IA, a nivel nacional, ya conté el caso local de lo que estamos haciendo. Pero bueno, como decía, en algo estamos más que de acuerdo los tres, es que el Estado tiene que sostener políticas, en espacial lo ha hecho, en energía lo ha hecho, y en educación lo ha hecho. Nosotros tres somos producto de la universidad pública y hace 50, 60, 70 años que se invierte muchísimo dinero. Y muchos de nosotros sabemos que Argentina tiene que ver con una educación de altísima calidad y pública. Entonces me parece que en ese sentido es un común denominador de estas cosas, continuar con las políticas sobre todo en las temáticas donde está claro que van a ser más que importantes, como son estas tres a futuro.”, concluyó Wolovick.

Ver el Panel completo

HPC: inversión y soberanía

Federico Stasyszyn y Dante Paz, miembros del Directorio del CCAD, participaron en una entrevista en el podcast “El Bestiario de Internet”, de Fundación Vía Libre, y conversaron acerca de la importancia y dificultades de lograr una soberanía de cómputo.

Durante una distendida charla, Federico Stasyszyn y Dante Paz, miembros del Directorio del Centro de Computación de Alto Desempeño (CCAD, UNC) e investigadores del CONICET en el Instituto de Astronomía Teórica y Experimental (IATE, CONICET-UNC), exploraron el panorama local y mundial en relación a la High Performance Computing (HPC) o Sistemas de Computación de Alto Rendimiento.
“La definición sobre qué es una supercomputadora, es dinámica, va cambiando, pero básicamente refiere a un conjunto de computadoras que se pueden comunicar entre sí y pueden hacer cálculos mucho más importantes de los que uno podría hacer en una computadora doméstica y, hacer estos cálculos de manera separada conectado a una red de alta velocidad y poder juntar estos resultados parciales y obtener un resultado concurrente, es decir completo. Pero de manera práctica, para definir qué es y qué no es una supercomputadora, la comunidad ha zanjado la discusión a través del TOP500, una lista de las supercomputadoras más grandes del mundo, es decir, los equipos que son capaces de realizar el mayor número de operaciones matemáticas por segundo”, define Dante Paz.
Argentina no cuenta con ninguna supercomputadora que ingrese en ese ranking, a pesar de las inversiones que, con sus falencias, se vienen haciendo en los últimos años. Por el contrario, aquellos países que han logrado desarrollar su economía y su sistema científico en los últimos años, han impulsado también su crecimiento en esta área. Un buen ejemplo de esto es el de China que, según comentó Soldán, conductor de “El Bestiario de Internet” en 1996 tenía sólo una supercomputadora en el TOP500 -en el puesto 298- y hoy tiene 168, dos de ellas en el TOP10, ocupando los puestos 4 y 7. Este cambio fue coherente con el crecimiento y desarrollo de ese país a nivel general.
En relación a esto, Federico Stasyszyn expresa que “la cantidad de países que tienen muchas supercomputadoras en el TOP100 es altísimo, ya que cuando un país empieza a invertir en tecnología, empieza a crecer el requerimiento de cómputo, ya sea para abrir nuevos campos, investigar cosas que no se pueden investigar de otra forma, o para reducir costos en ciertas aplicaciones”. La pregunta que hacía, entonces, Soldán y que parece muy pertinente hacernos, es si es posible para un país como el nuestro, entrar a este ranking. “No es suficiente entrar al TOP500, como si fuera ganar un mundial, sino que es una política que requiere mucho trabajo de capacitación y mantenimiento que no tiene sentido hacer sólo por un año. Son recursos, investigaciones que se pierden. Entonces, si bien cuesta llegar hasta ahí, hay que mantenerse. Argentina no está en ese top, se está preparando ¿Tenemos los recursos humanos? ¿Tenemos los equipos? ¿Tenemos investigadores que le sacarían provecho? No sé. La capacidad humana sí, pero hay que apuntalar todo el sistema con una política pública constante y me parece que todavía estamos verdes en eso”, responde Federico.
Dante Paz agrega que el ciclo de no mantener la inversión es muy costoso, quita recursos humanos que en momentos complicados se ven obligados a emigrar o deben cambiar la línea de investigación porque no tienen la capacidad de cómputo necesaria para seguir avanzando en la línea en la que venían. “Se tiende a pensar en las supercomputadoras como en un gran microscopio, como un equipamiento de gran envergadura y nada más. Pero al hardware de HPC hay que pensarlo como si fuera perecedero, la obsolescencia es voraz, al poco tiempo deja de ser competitivo por el propio avance de la industria”.

HPC: una gran inversión

Este tipo de computadoras tienen una vida útil muy corta, la capacidad de cómputo o el rendimiento energético va decreciendo comparativamente y en 5 años se vuelven obsoletas. “Entonces existe la necesidad continua de ir manteniéndolas, por eso existe el TOP500, es la forma en la que se van auto midiendo y auto exigiendo las diferentes supercomputadoras para seguir siendo competitivos”, explica Federico.
Sin embargo, hay muchos capitales privados en HPC y eso se da porque es una de las inversiones más rentables a nivel mundial. Muchos son los ejemplos que permiten afirmarlo: la industria farmacéutica que puede probar fármacos a través de simulaciones o, en relación a la energía eólica con plataformas marítimas donde las simulaciones permiten calcular cómo debe construirse un molino que se encontrará sobre una base que se mueve por el oleaje. Se ahorran millones de dólares por poder ensayar diversas soluciones mediante simulaciones, en lugar de hacerlo en la práctica.
Pero, además, los equipos rinden frutos, superando los costos iniciales muy rápidamente. Según explicó Dante en la entrevista, la última computadora que se compró en el CCAD fue Serafín y costó U$S 386.000. En menos de dos años, si se tiene en cuenta que no sólo generó recursos por servicios a empresas sino también que la Universidad ahorró mucho dinero en pagos que de otro modo debería haber realizado a otras compañías para acceder a supercomputadoras, la inversión inicial se recuperó con creces. “Entonces, a la obsolescencia no hay que pensarla como un problema sino como parte del proceso que te permite con el propio rendimiento, ir haciendo inversiones cada vez mejores”, concluyó Paz.

Los beneficios de la HPC, tal como se vio en el CCAD, impactan mucho más allá de lo económico. “El impacto de Serafín ha sido espectacularmente bueno para la comunidad científica porque la mismo cambio en la arquitectura, la estructura, los detalles de esta supercomputadora que desarrolló AMD, nos ha servido mucho porque, por ejemplo, la transferencia de memoria que se multiplicó por 8, me posibilitó desarrollar un código para estudiar vacíos cósmicos que antes no podía calcular. Durante la pandemia que Serafín estaba siendo ensamblada recién, la gente de ciencias químicas usó otros equipos que teníamos para simular cómo fármacos ya aprobados interactuaban con modelos del virus del COVID que había en ese momento. Y eso fue espectacular porque todos de manera solidaria aportamos recursos para encontrar candidatos a ser probados en laboratorio, como modo de aportar en ese momento crítico. Pero, de todos modos, siguen siendo clusters chicos si se compara con los recursos disponibles en otros centros de investigación. Entonces es una sensación agridulce, siempre uno quiere más”, comenta Dante.
Y este querer siempre más puede refrendarse con números, como una necesidad “Hace un tiempo hicimos una convocatoria y les pedimos a los grupos de investigación de la UNC que presenten proyectos para los cuales necesitarían poder de supercómputo. Lo comparamos con la capacidad que tenemos en el CCAD y la cuenta nos dió que Córdoba necesita un factor 10, es decir que necesitamos 10 Serafín para poder cubrirla necesidad de computo que hay en nuestra Universidad. Por eso Serafín está ocupada al 100%, 24/7”, asegura Paz.

HPC y desarrollo

Conformar un cluster implica desarrollo científico, tecnológico, industrial y también creación de una fuente de trabajo que insume y también forma recursos humanos de altísimas capacidades técnicas. “El HPC es transversal, estás ayudado a toda la ciencia, a toda la ingeniería aplicada, de optimización de procesos, la verdad es que es super necesario”, asevera Dente Paz.
Y sus beneficios van más allá aún, redundando en la tan mentada soberanía. Tal como desarrolló Federico durante la charla, tener capacidad de cómputo permite no sólo hacer preguntas, sino obtener respuestas a nuestros propios problemas, sin esperar a que alguien en algún lugar del mundo se haga una pregunta similar y nos dé una respuesta que de todos modos no estará adecuada a nuestras necesidades “Tenemos que tener la posibilidad de responder nuestras propias preguntas y no tener que estar esperando a que salga algún artículo en algún lugar del mundo que nosotros podamos modificarlo para poderlo aplicar”, asevera el investigador.

Y esto que parece tan abstracto, tiene a veces demostraciones muy concretas y palpables. En ese sentido, Dante Paz comentó que usar equipos extranjeros, por ejemplo uno muy grande que instaló Estados Unidos en Chile para un proyecto de astronomía, implica que sólo está disponible para ciertos usos siempre asociados a ese proyecto pero, además, significa que todo lo que se ingrese a esa computadora puede ser utilizado por el país que lo financia. “Cuando vos accedés a este equipo el primer mensaje que te aparece es: ‘Este equipo es propiedad de la Agencia de Energía de Estados Unidos, por lo tanto todos los datos o software que usted tenga en este lugar va a ser escrutado por cualquier Agencia Gubernamental de los Estados Unidos. Y todo lo que usted produzca acá, tenga en cuenta que es propiedad de los Estados Unidos’. Así comienza, cuando vos te logueas. Es como que de pronto te pega la soberanía en la cara; San Martín, Belgrano, los jujeños con su éxodo, todo eso para qué si seguimos siendo un país colonizado en ese sentido. Es triste”, concluyó Paz


Para escuchar el programa completo (que está buenísimo) pueden encontrarlo en spotify o en podacastadict 

El CCAD en una competencia Internacional

Un equipo integrado por miembros del CCAD, estudiantes de la Facultad de Matemática, Astronomía y Física (FaMAF, UNC) y de la Facultad de Ingeniería (UCC), fue admitido para formar parte de la IndySCC.

La IndySCC es un evento que comparte los objetivos del SCC pero con énfasis en educación e inclusión, dirigido especialmente para equipos con poca experiencia. Los equipos compiten de manera remota utilizando un hardware provisto por la industria de HPC, a través de una experiencia educativa. Una vez finalizada esta primera etapa, comienza un concurso de 48 hs, durante la semana previa al SC, como culminación de la experiencia y el conocimiento adquirido por los equipos en los meses previos.

Supercomputing (SC) es la Conferencia y Exhibición de HPC más grande del mundo. Este año se hace en Denver, EEUU. SCC es la competencia más importante que se realiza dentro de SC y son una docena de equipos que construyen un cluster y tratan de correr aplicaciones lo más eficientemente posible. Los grandes fabricantes los esponsorean y les dan los equipos. Están una semana trabajando en eso. La IndySCC es el primer paso para poder acceder a ese mundo, por eso es tan importante para nosotros que nos hayan aceptado como participantes”, explica Nicolás Wolovick.

Desde el CCAD postularon a un equipo integrado por el coach Marcos Mazzini (CPA del CCAD), Nicolás Wolovick (director del CCAD), Lucia Martinez Gavier (estudiante de FaMAF-UNC), Marcos Tolcachir (estudiante de FaMAF-UNC), Alejandro Ismael Silva (CPA del CCAD y estudiante de FaMAF-UNC), Luigi Finetti (estudiante de FaMAF-UNC), Juan Ignacio Folco (estudiante de la Facultad de Ingeniería-UCC) y Lara Kurtz (estudiante de FaMAF-UNC).

Entre los puntos a favor que determinaron su aceptación dentro de la IndySCC, los evaluadores resaltaron la capacidad para aprovechar de manera creativa y eficiente los recursos, la diversidad de conformación del equipo, la inclusión de mujeres a pesar de la escasa representación femenina en STEM en el país y la incorporación de personas con gran expertise.

“Estamos muy contentos con esta oportunidad porque, sin dudas, será una experiencia muy enriquecedora en la que podremos aprender y adquirir nuevas capacidades pero también ganar visibilidad en nuevos espacios y crear vínculos con colegas de todo el mundo”, concluye Wolovick.

Taller Usando Jupyter en CCAD

El miércoles 5 de julio, a las 10 h, el CCAD brindará un Taller sobre el uso de Jupyter: Julia, Python, R

Oscar Reula y Juan Perotti, ambos miembros del CCAD, brindarán el Taller Usando Jupyter en CCAD, el día miércoles 5 de julio a las 10 h, con modalidad mixta. Se dictará de manera presencial en el Laboratorio 28 de FaMAF y de manera remota usando el siguiente link https://meet.google.com/qzc-kctx-zos

Jupyter hace referencia a los lenguajes Julia, Python, R. Esta es la tecnología de notebooks para computación interactiva que se está empleado desde el CCAD, con el proyecto 2i2c y con el nuevo nodo de Serafín.

 

El CCAD tiene nuevo personal de apoyo

Alejandro Silva se incorporó al Centro de Computación de alto Desempeño de la UNC, como Personal de Apoyo a la Investigación (CPA) del CONICET.

 

Alejandro Silva es Analista en Computación y continua sus estudios para recibirse de Licenciado en Ciencias de la Computación en FAMAF (UNC). Se define como una persona inquieta y que siempre busca algo nuevo que hacer y aprender. Además, le gusta trabajar en proyectos que tengan repercusión en la sociedad. Desde el 1 de junio forma parte del CCAD.
La llegada al CCAD del CPA-CONICET Alejandro Silva es el esfuerzo de muchas y muchos actores. En abril de 2021, Nicolás Andruskiewitsch y Oscar Reula, el primero ex-director del CIEM y el segundo el ex-director del CCAD, acuerdan pedir un cargo CPA para el CIEM con lugar de trabajo en el CCAD-UNC.
El llamado a selección tuvo dos instancias ya que la primera quedó desierta. En julio de 2022, se elabora un orden de mérito y dos candidatos pasan el puntaje de corte, entre ellos Alejandro Silva.
El proceso continuó y gracias al apoyo de la Directora del CCT Córdoba, María Angélica Perillo, el Coordinador de la UAT, José Caballero, y el nuevo Director del CIEM, Jorge Lauret. El día 14 de febrero de 2023 se terminó el proceso administrativo.
En marzo el candidato que quedó primero en el orden de mérito no acepta la propuesta  por tener una más interesante económicamente, y se pasa al segundo en el orden de mérito, el Analista Alejandro Ismael Silva, que acepta y en mayo de 2023 se termina el proceso de alta.
Alejandro empezará a cobrar una Beca de Estadía Corta de parte del CONICET para que la espera del proceso de Alta Definitiva concluya.

«Este fue un proceso largo, de un poco más de dos años, pero que valió la espera. Alejandro, aun teniendo oportunidades en un mercado laboral global cobrando en dólares, eligió intentar trabajar con nosotros. Esperamos estar a la altura de sus expectativas», expresó Nicolás Wolovick, director del CCAD. Los CPA Carlos Bederián y Marcos Mazzini por su parte, lo necesitan casi con desesperación. La cantidad de trabajo que generan 4 clusters y más de 150 usuarios activos, muestra la gran capacidad técnica y profesionalismo que asombran a propios y extraños.

Serafín: 100.000 trabajos en menos de dos años

A 22 meses del inicio de operaciones del cluster más grande del CCAD, realizamos un nuevo balance, con saldo positivo.

 A menos de dos años desde que Serafín comenzó a operar en el Centro de Computación de Alto Desempeño, llegamos a los 100.000 trabajos ejecutados. Esto pone en evidencia, una vez más, que los recursos están siendo explotados al máximo de su capacidad.
Desde agosto de 2021 hasta la fecha, el mayor cluster del CCAD ejecutó un total de 44.580.163 horas-core, con un valor de U$S 0.01 cada una. Es decir que en estos 22 meses Serafín produjo U$S 445.801,63, superando su costo de compra, que fué de U$S 386.000. Si se tiene en cuenta que el tiempo de vida útil promedio de estos equipos es de 5 años, Serafín tendrá tiempo de sobra para generar beneficios que superen la inversión inicial y sus costos de funcionamiento. Por otra parte, el consumo energético aproximado fue de 348.282 KWh.

Finalmente, cabe destacar que, con el objetivo de que el costo de operación no recaiga íntegramente sobre las personas usuarias, hay muchas instituciones que aportan de diversas maneras para sostener el pleno funcionamiento del cluster, principalmente, la Universidad Nacional de Córdoba. Esto permite que puedan producirse una gran cantidad de publicaciones de excelencia, que de otro modo serían inaccesibles para muchos grupos; constituyendosé en una herramienta invaluable para la investigación científica. Además tiene la capacidad de generar colaboraciones con empresas de renombre, como Y-TEC, a través de convenios y prestación de servicios arancelados.

CCAD Q&A ¿Cómo hago para …?

Tuvo lugar el primer encuentro Q&A de usurios/as con el objetivo de obtener mayor provecho de los recursos que brinda el Centro de Computación de Alto Desempeño de la UNC.

El pasado 16 de mayo se realizó un encuentro virtual donde power-users del CCAD ayudaron a resolver dudas de otros/as usuarios/as, de la más diversa índole, para poder sacar mejor provecho de nuestros recursos. A través del intercambio de preguntas y respuestas, la comunidad del CCAD -que suma un promedio de tres usurios/as por semana- continua fortaleciéndose y acrecentando sus capacidades.
Los/as power users que generosamente estuvieron a cargo del Q&A fueron: Ayelén Crespi del CETMIC (UNLP-CIC-CONICET), Sergio Rodríguez de la Facultad de Agronomía y Agroindustrias (UNSE), Ignacio José Chevallier-Boutell de FAMAF (UNC) e IFEG (CONICET-UNC) e Ignacio Scarinci de FAMAF (UNC), IFEG (CONICET-UNC) y LIIFAMIR.
Asistieron al encuentro virtual alrededor de 50 personas que pudieron evacuar dudas de todo tipo, siguiendo la consigna de la convocatoria: “Menú abierto, no hay nada que no se pueda preguntar, desde ¿Cómo me conecto? hasta ¿Cómo corro un container de Singularity para un workload de ML?”.