Eulogia está creciendo

Ya están operativos dos de los cuatro nodos de Eulogia#5, el quinto módulo 2U que contienen 4 Xeon Phi 7250 que fuera recibido en agosto de 2018 y adquirido en forma conjunta entre la FaMAF y el CCAD-UNC.

Cada computadora de Eulogia#5 venía con 48 GiB de RAM (3 módulos de 16 GiB), ya que se trataba de una oferta de Intel ya que discontinuaron los Xeon Phi, un excelente producto para HPC. Para uniformar, solo tenemos dos de los cuatro procesadores activos, con los 96 GiB de RAM que tienen los anteriores nodos.

La RAM de Eulogia#5 se completará con aportantes del Sistema Científico Nacional y empresas locales. Se necesitan 12 módulos 16 GB DDR4-2400 2RX8 ECC RDIMM, con un precio estimado de 310 USD cada uno. Ya tenemos dos módulos comprados aportados por:

  • Guillermo Montich, subsidio PICT, FCQ.
  • Franco Luque, subsidio PICT, FaMAF.

También está por llegar Eulogia#4 que será adquirida con fondos del PMT-2017 No. 33520170100032CB de SeCyT-UNC pedidos entre el OAC y FaMAF.
En el camino Eulogia#4 sufrió el proceso devaluatorio de agosto, por lo que también aportará el CCAD-UNC, la UNC y el ex-MinCyT para tener este nuevo nodo que estimamos que llegará en febrero de 2019.
Con toda esta potencia de cálculo agregada Eulogia llegará a 53.20 TFLOPS DP pico.

Compra colaborativa Universidad y Empresas: 20 discos 8 TiB

En mayo de este año comenzamos una compra colaborativa, comunmente conocida como "vaquita", de 20 discos de 8 TiB SAS para llenar los dos nuevos Network-attached Storage (NAS) el CCAD que estarán llegando próximamente.
Este NAS reemplazará al ya viejo y parchado 9U Chenbro RM91250 que originalmente se compró en 2010 para Cristina.

Esta compra colaborativa tiene dos objetivos

  • Bajar el valor del aporte mínimo en equipamiento para el CCAD por parte de los grupos y unidades académicas que hacen uso de los recursos computacionales del Centro.
  • Involucrar a las PyMEs tecnológicas del medio local que quieren apoyar al CCAD para seguir manteniendo el ecosistema de HPC en Córdoba.

Con este tipo de compras bajamos dos órdenes de magnitud el nivel de aporte, con lo cual podemos recibir equipamiento valioso que ronda el centenar de dólares estadounidenses y no la decena de miles que es lo que cuesta típicamente un nodo de cómputo. Esto posibilita utilizar de manera eficiente pequeños subsidios o subsidios que sufrieron la devaluación como los de SeCyT o los PICT. Y en la parte empresarial, podemos acceder a donaciones de la gran cantidad de PyMEs tecnológicas cordobesas.

Los aportantes fueron:

  • 5 discos INFIQC, FCQ.
  • 4 discos subsidio PICT de Marcelo Mariscal, FCQ.
  • 4 discos subsidio PICT Jorge Sánchez, FaMAF.
  • 2 discos Departamento de Química Teórica y Computacional (DQTC), FCQ.
  • 2 discos subsidio PICT Franco Luque, FaMAF.
  • 1 disco subsidio FonCyT Cecilia Giménez, FaMAF.
  • 1 disco empresa EMSER.
  • 1 disco empresa DeepVisionAI.

Agradecemos especialmente a las empresas por su apoyo e invitamos a quien quiera donar equipamiento al CCAD a contactarse con nosotros.

Tres casos de uso industrial de Nabuconodosor

Les hicimos algunas preguntas a Leonardo David González de EMSER, Mirko Panozzo Zénere de ASCENTIO y a Maximiliano Armesto de Taller Technologies para conocer su experiencia en el uso de Nabuconodosor la computadora para ML del CCAD-UNC que tuvo aportes de empresas locales.

Leonardo David Gonzalez

¿En qué empresa trabajás?
EMSER EMPRESA DE SERVICIOS S.A.

¿En que proyecto están trabajando?
Estoy trabajando en varios proyectos de IA. Algunos proyectos requieren reconocimiento de imágenes.

Contanos brevemente tu experiencia con Nabucodonosor y que cosas te permitió hacer que antes no podías.
Utilicé Nabocodonosor para entrenar una red neuronal para el reconocimiento de unos pocos productos. La ventaja fue la de poder experimentar y tomar una idea de los tiempos y recursos que conlleva este tipo de operaciones.

¿Necesitarían más potencia de cálculo? ¿Qué planes tienen para suplirla?
Para producción se requerirá mas potencia y dedicación ya que hay que entrenar muchos productos. Entendemos no es la razón de Nabucodonosor por lo que vamos a alquilar potencia de calculo en AWS. Seria genial no tener que recurrir a este tipo de proveedores en el exterior, ojalá algún día contemos con algún tipo de servicio similar y de costos accesibles que sea Industria Argentina.

¿Cómo se podría mejorar esta experiencia de relación universidad-industria?
Entiendo sería interesante para toda la industria poder tener acceso a un sitio que funcione como showroom permanente o laboratorio muestren de que cosas se puede implementar con inteligencia artificial y/o con big data en el día de hoy, con referencia a los investigadores responsables de publicarlos que sirvan como consultores (y si se los pudiera contratar, mejor!). Algo que no sea netamente documental, algo sencillo pero que se pueda ejecutar sobre Nabu. Un lugar que sea una vidriera de lo que se investiga en FaMAF en cuestión de estos términos, donde se puedan visualizar novedades regulares al respecto.

 

Mirko Panozzo Zénere

¿En qué empresa trabajás?
Ascentio Technologies S.A.

¿En que proyecto están trabajando?
Estamos trabajando en un sistema llamado Galatea Watcher, encargado de procesar imágenes SAR (Radares de Apertura Sintética) y de datos de posicionamiento AIS (Automatic Identification System) de buques para cruzar la información y realizar la detección de buques ilegales y derrames de petróleo. El sistema está operativo hace un año en la Prefectura Naval Argentina monitoreando el mar Argentino.

Contanos brevemente tu experiencia con Nabucodonosor y que cosas te permitió hacer que antes no podías.
Estamos expandiendo el sistema para soportar nuevas misiones SAR (entre ellas la misión argentina SAOCOM) para brindar servicios con nuevas imágenes, principalmente las de distribución gratuitas como las de la misión Sentinel-1 de la Agencia Espacial Europea y la aplicación de máscaras de tierra para eliminar áreas de costa utilizando DEMs (Modelos de Elevación Digital). La capacidad de procesamiento de Nabucodonosor nos permite avanzar sobre las pruebas de concepto de procesamiento de estas imágenes, algunas de las cuales tienen más de 20 mil x 20 mil píxeles, ya que podemos parelizar el procesamiento de las mismas y no preocuparnos tanto por el manejo de la memoria RAM durante la etapa de validación de los resultados.

Habiendo validado los resultados, ahora estamos trabajando en mejorar el manejo de la memoria RAM para dejar de depender exclusivamente de Nabucodonosor. Pero hasta el momento, nos sirvió de forma tal que si no lo hubiésemos tenido a mano, habríamos tardado mucho más tiempo en validar nuestros resultados porque el esfuerzo se hubiera centrado en la eficiencia a nivel performance.

¿Necesitarían más potencia de cálculo? ¿Qué planes tienen para suplirla?
No necesitamos más potencia. Actualmente estamos trabajando en lograr que el procesador de las imágenes trabaje de forma más eficiente a nivel memoria RAM. A nivel procesamiento no es necesario hacer una mejora significativa, dado que en el tiempo total transcurrido entre la adquisición de la imagen y la entrega del reporte al cliente nuestro procesamiento representa apenas un 10% de dicho tiempo.

¿Cómo se podría mejorar esta experiencia de relación universidad-industria?
En lo que a nuestra experiencia respecta, todo ha sido para bien. Hemos tomado provecho de este nodo creado entre el cluster y la facultad para mejorar nuestro producto. Contar con Nabucodonosor nos permitió, además, poder empezar a generar productos para otros países de Latinoamérica tales como Perú, Colombia y Brasil. Tal vez podríamos mejorar esta relación desde nuestro sector, mostrando los resultados obtenidos para poner en valor lo importante que es disponer de una herramienta como Nabucodonosor.


Maximiliano Armesto

¿En qué empresa trabajás?
Taller Technologies.

¿En que proyecto están trabajando?
GreenVisual: diseño y entrenamiento de una red neuronal para la distinción de cultivos y malezas en el sector agrícola. Estamos utilizando redes neuronales convolucionales para hacer la clasificación. Contamos con un dataset de 8000 imágenes.

Contanos brevemente tu experiencia con Nabucodonosor y que cosas te permitió hacer que antes no podías.
Pudimos entrenar nuestro modelo en Tensor Flow de una manera mucho más rápida. Pasamos de 3 días de entrenamiento a unas 5 horas. Esto nos permitió jugar con más parámetros en el diseño del mismo. Le experiencia fue muy buena el único problema fue cuando los usuarios no respetaban el sistema de encolado de las tasks.

¿Necesitarían más potencia de cálculo? ¿Qué planes tienen para suplirla?
Por ahora no necesitamos más potencia. Nuestro dispositivo deberá correr los modelos en el campo sin conexión, con lo que estamos tramitando un kit de desarrollo NVIDIA.

¿Cómo se podría mejorar esta experiencia de relación universidad-industria?
Creo que muchas veces los usuarios no encolan las tareas por no saber que deben hacerlo. Mejoraría la capacitación en este sentido.

Alejandra Foggia, una física en el Master de HPC

Alejandra Foggia MHPCAlejandra Foggia es Lic. en Física de la FaMAF. Hace un par de años tomó un rumbo distinto respecto a sus compañeras y compañeros y empezó a cursar el Master en High Performance Computing (MHPC) un programa conjunto entre el SISSA y el ICTP en Trieste, Italia. Le consultamos acerca de la relación entre su título de grado y este nuevo campo de estudio.

CCAD: Hola Alejandra. Contanos cual es tu título de grado y que estás haciendo actualmente.
Alejandra Foggia: ¡Hola! Soy Licenciada en Física desde hace un año y medio aproximadamente. Ahora estoy terminando una maestría en High Performance Computing (MHPC). La maestría es "corta" porque dura sólo 12-15 meses (en general los masters suelen ser de 2 años), y los cursos son todos prácticos, uno aprende haciendo, literal.

CCAD: El cambio de tema parece radical. ¿Qué te costó más y que te costó menos para hacer la MHPC con tu formación de base en física?
AF
: Sí, es un gran cambio, sobre todo porque, como decía, es todo práctico. Estaba muy acostumbrada a primero leer sobre un tema y tener clases teóricas y después hacer ejercicios. Acá (y creo que en esta área) no es así, los ejercicios son la forma de aprender, leer material bibliográfico es sumamente recomendado pero no es esencial. Esa forma de trabajar me gusta.
Respecto de los temas tratados acá, no tuve grandes dificultades porque en la FaMAF tuve en el último año un muy buen curso de Análisis Numérico (dejé esa materia para casi el final) en el cual aprendimos no solo los algoritmos sino a programar correctamente, particularmente en Fortran, siguiendo las "prácticas del buen programador". Una vez que uno sabe eso para un lenguaje es aplicable a todos. Lo que más me costó de todas las cosas que aprendí fue el concepto de puntero en C, porque en Fortran no es algo que surja naturalmente, mientras que en C es muy normal. Pero estaba casi obligada a programar en C, entonces eventualmente lo empecé a manejar sin problemas. El resto de los temas fueron fáciles de comprender, siento que la formación en física nos da capacidad de abstracción y de extrapolación que permite cambiar de tema de trabajo fácilmente sin grandes complicaciones.

CCAD: No sos la primera física que se especializa en HPC, pero tal vez dentro de FaMAF-UNC la experiencia no sea de lo más común. ¿Qué mensaje le darías a los estudiantes de los últimos años de carreras de ciencias duras respecto a tu experiencia?
AF: Me dí cuenta que más allá de la investigación, hay mucho mucho más en lo que uno puede aplicar la formación en física (en particular, porque es mi rama) y los conocimientos y habilidades relacionados al HPC. Cuando terminé la carrera para mí el siguiente paso era empezar un doctorado, no había otra, pero no es así. La investigación no es para todo el mundo, puede que haya muchas personas que terminan la carrera y no quieran seguir en lo académico, pero que no tienen idea de qué otras cosas se pueden hacer. Es la respuesta que nunca podía dar cuando me preguntaban: ¿Y qué hace un físico cuando se recibe? En mi experiencia, durante la carrera no se habla de estas otras posibilidades entonces uno no sabe ni cómo ni dónde buscar. Mi mensaje en parte es sobre esto, existen infinidad de cosas para hacer a parte de la investigación, lo que sí, para descubrirlas muchas veces uno tiene que pasarse varias horas al frente de la compu visitando páginas de empresas de software/hardware, de universidades (porque muchas veces las universidades tienen acuerdos con empresas y hacen investigaciones aplicadas), de proyectos (como bibliotecas de álgebra lineal, de elementos finitos, graficadores, por decir algunos), etc. No es la única forma de hacerlo pero, según mi experiencia y la de mi entorno, es la más común.
En particular hablando de la investigación, depende de lo que uno haga dentro de su ciencia, pero para mí es muy claro que, si uno no hace algo experimental, e incluso en esos casos puede ser necesario también, saber hacer simulaciones eficientemente es muy muy importante. Los problemas que actualmente son investigados suelen tratar de sistemas complejos, de muchas variables, que requieren de mucha memoria y muchas horas de cómputo para correr, y si uno apunta a esos sistemas los conceptos asociados al HPC son un requerimiento.
Mi modo de verlo (y después del máster lo puedo confirmar) es que las grandes simulaciones, y por grandes me refiero al volumen de datos y al tiempo de ejecución, son claves tanto en la ciencia como en la industria. Por eso, el conocimiento de los conceptos relacionados al HPC es un complemento, una herramienta, de mucho uso y peso para una persona con formación en ciencias duras.

CCAD: ¿Nos contás de que estás planeando a futuro? ¿HPC, física, ambas?
AF: Me gustaría hacer un doctorado en el área de la física, algo así como física con biología, para probar la "experiencia académica", y me gustaría hacerlo en algo donde el HPC sea un componente fuerte de mi trabajo.

CCAD: Muchas gracias Alejandra por tu tiempo
AF
: Gracias a ustedes por la entrevista, espero que sirva para visibilizar estas cosas.