Nuevos representantes de FCEFyN en CCAD

Se continua con el proceso de renovación de las y los representantes en el Centro de Computación de Alto Desempeño de la UNC. En este caso la Facultad de Ciencias Exactas, Físicas y Naturales, nombró por primera vez a sus representantes para integrar el Directorio del CCAD. Como titular asumió Nehuen Gonzalez Montoro y como suplente, Renato Cherini.

Nehuen Gonzalez Montoro es Ingeniero electrónico (UNC), profesor de Informática e investigador del Laboratorio de Comunicaciones Digitales y Centro de Vinculación de Comunicaciones Digitales de la FCEFyN. Se especializa en algoritmos y modelos para el análisis, planificación y aprovisionamiento en redes ópticas.

 

 

Renato Cherini es Doctor en Ciencias de la Computación (FAMAF-UNC), Profesor en FAMAF y FCEFyN. Participa de numerosos proyectos de investigación en verificación formal de programas, filosofía de la computación, y más recientemente, deep learning geométrico. Además participa en proyectos de vinculación tecnológica con el sector aeroespacial y de telecomunicaciones.

Diez Milan y ocho A10 para CCT-Rosario

Con fondos de la Provincia de Santa Fé, el CCT-Rosario compra equipamiento de HPC. Dos servidores ultradensos uno de CPU y otro de GPU, más un switch Infiniband conforman este combo que se suma al cómputo de CyT de Santa Fé.

Casi al finalizar el año, llegaron al CCT-Rosario, los equipos que se obtuvieron del concurso de la Agencia Santafesina de Ciencia, Tecnología e Innovación (Asactei) con código PEICE-2021-014. Pablo Granito y Fabio Busnengo fueron los titulares del este proyecto, que fué adjudicado a MultiTech.

Hay tres partes del equipamiento. Primero que todo un switch Infiniband exactamente igual al de Serafín, un Mellanox HDR-200. En Rosario harán el mismo aprovechamiento que nosotros utilizando los cables splitter de 1 HDR-200 a 2 HDR-100.

La segunda parte es un server BigTwin de Supermicro ultradenso conteniendo 4 nodos cada uno con:

  • 2 EPYC 7513, arquitectura Milan, de 32 núcleos y 1.33 TFLOPS.
  • 256 GiB DRAM ECC DDR4-3200, llenando los 16 canales del nodo.
  • NIC IB HDR100 conectado a PCIe 4.0 16x.
  • NVMe 256 GiB.

Los 4 nodos están en un chasis Supermicro AS-2124BT-HNTR, y totalizan 8*1.33=10.64 TFLOPS Rpeak. El Dr. Busnengo estima que han aumentado en un 50% la capacidad de cómputo en doble precisión.

Finalmente adquirieron un chasis AS-2114GT-DNR también de Supermicro que contiene dos nodos con:

  • 2 EPYC 7513, arquitectura Milan, de 32 núcleos y 1.33 TFLOPS.
  • 128 GiB DRAM ECC DDR4-3200, llenando los 16 canales del nodo.
  • NIC IB HDR100 conectada por PCIe 4.0 16x.
  • NVMe 256 GiB.
  • 4 NVIDIA A10, arquitectura Ampere GA102, con 24 GiB GDDR6 conectados por PCIe 4.0 16x. Cada una eroga 31 TFLOPS en precisión simple.

Las 8 GPUs totalizan 248 TFLOPS para cómputo de aprendizaje automático.

Tanto la solución de CPU como la de GPU tienen muy buen ancho de banda a memoria. La primera supera los 350 GiB/s por nodo a sus 256 GiB, mientras que la GPU permite un máximo de 600 GiB/s a sus 24 GiB de memoria.

Nos alegra saber y comunicar que los Centros de HPC del país siguen creciendo.

 

Nicolás Wolovick, Director del CCAD-UNC

Conocer la diversidad genética de las antiguas poblaciones pampeanas a través de Mendieta

Angelina García -investigadora- y Nicolás Pastor -personal de apoyo- del IDACOR (CONICET-UNC), emplean los recursos del CCAD para estudiar la variabilidad genética de diferentes poblaciones humanas de Argentina.

El sur de la región pampeana de nuestro país fue uno de los primeros espacios geográficos en ser ocupados en el continente americano. Sin embargo, la dinámica evolutiva de los poblaciones que habitaron esta región ha sido escasamente documentada y preguntas relacionadas con la continuidad e interacciones con otros grupos siguen abiertas. Justamente, en esos puntos vacíos se centra el trabajo en el que participan Angelina García, investigadora del CONICET, y Nicolás Pastor, profesional de apoyo del CONICET, en el Instituto de Antropología de Córdoba (IDACOR, CONICET-UNC). “Nuestro proyecto marco tiene por objetivo comprender los procesos microevolutivos que dieron forma a la variabilidad genética de diferentes poblaciones humanas de nuestro país, y así contribuir al conocimiento de su historia evolutiva. En este estudio describimos los patrones espaciales y temporales de la diversidad genética por línea materna de grupos humanos procedentes del sur de la región pampeana”, explica la investigadora.

Dicho estudio se centró en el análisis de mitogenomas, es decir, de todo el ADN que se encuentra en las mitocondrias -ubicadas en el citoplasma de las células, en lugar del núcleo como el resto del ADN- y que se hereda exclusivamente por línea materna. Para elaborar los patrones espaciales y temporales de la dinámica poblacional de la región, se compararon los datos obtenidos en este estudio con una base de datos que recopila 2.577 mitogenomas modernos y 160 mitogenomas antiguos, procedentes de datos previamente publicados de poblaciones sudamericanas.

Mendieta Fase 2 (MendietaF2) es fundamental en este proceso ya que, si bien estos análisis pueden realizarse fácilmente en computadoras personales cuando son a pequeña escala (en el orden de cientos de secuencias con cientos de bases), el análisis de miles de secuencias de mitogenomas completos (cada uno con 16.569 pares de bases) se torna computacionalmente ineficiente. “Previo a que tomáramos contacto con el CCAD, realizábamos estos análisis en nuestras computadoras personales, dedicadas exclusivamente a este procesamiento durante semanas, a fin de completar una sola corrida. Actualmente, aprovechando las GPUs NVIDIA A30 del cluster MendietaF2, podemos completar una corrida en menos del tiempo límite de ejecución del nodo (48 hs)”, comenta Pastor. “Esto claramente potencia nuestro trabajo ya que nos permite ejecutar más corridas en un mismo período de análisis, y así poner a pruebas diferentes modelos, incluyendo los más complejos que serían prohibitivos en computadoras personales. Todo ello, nos posibilita estar a la altura del estándar internacional para análisis de este tipo, sin necesidad de comprometernos en colaboraciones forzadas por la disponibilidad a los recursos computacionales, brindándonos autonomía para llevar adelante nuestras investigaciones y soberanía sobre las preguntas que las motivan”, agrega Pastor.

 

Mendieta y BEAST, al servicio de la Genética de Poblaciones Humanas

Los trabajos que hemos ejecutando en el cluster MendietaF2 implicaron la utilización del programa BEAST, con el cual se realizaron análisis Bayesianos a partir de secuencias de ADN mitocondrial, utilizando el método de Monte Carlo basado en cadenas de Markov (MCMC). De forma general, a partir de las secuencias de ADN , combinando diferentes modelos teóricos de evolución molecular y datos externos, como el fechado de las muestras antiguas, podemos estimar el tiempo del ancestro común más reciente de diferentes linajes. Esto permite reconstruir la historia evolutiva de los linajes en forma de árboles, estimar la edad a la que ocurrió la divergencia entre los linajes e inferir cambios en los tamaños de las poblaciones a lo largo del tiempo.

 

La evolución de la Genética de Poblaciones Humanas como disciplina científica.

La Genética de Poblaciones Humanas (GPH) es una disciplina sintética que surge a partir de la aplicación combinada de los métodos y teorías de la Genética y Biología Evolutiva, para investigar las causas de la diversidad genética de las poblaciones humanas en el presente y la historia evolutiva que la ha generado. En el inicio, la escasez de datos empíricos redundó en una fecunda base teórica de la disciplina. Durante una fase intermedia, desde los años setenta hasta principios de los noventa, cuando los marcadores genéticos clásicos y moleculares se tipificaban con facilidad, predominaron los análisis descriptivos de la variación genética. Cuando los modelos demográficos y genéticos se volvieron más complejos eran teóricamente intratables o computacionalmente prohibitivos.

En la actualidad, la comunidad científica nacional e internacional está constantemente produciendo datos a partir de genomas completos mitocondriales y nucleares o de centenares de miles o millones de variantes genéticas, para un número mayor de muestras. “En consecuencia, el tamaño y complejidad creciente de los conjuntos de datos generados dificultó aún más la validez y eficacia en las inferencias estadísticas para responder a preguntas de la GPH. A pesar de ello, el uso de datos genómicos masivos se convirtió en el estándar de los estudios de GPH, útiles para comparar e integrar a los estudios que desarrollamos en distintos laboratorios de nuestro país. Esto significa que es primordial para la comunidad científica disponer de los exigidos recursos computacionales para el manejo de dicho volumen de datos y de los métodos estadísticos necesarios para su procesamiento”, concluye García.

CCAD UX: Experiencia como usuario del CCAD

Finalmente después de 5 años de desarrollo pudimos enviar a una revista nuestro trabajo titulado: «Guess the cheese flavour by the size of its holes: A cosmological test using the abundance of Popcorn voids«. El 13 de Diciembre del 2022 al mismo tiempo que el árbitro pitaba el comienzo del partido entre Argentina y Croacia, nosotros estábamos enviando el artículo a arxiv.org (link al articulo), buscando colarnos en los primeros lugares del listado de preprints que este sitio publica día a día.

Nuestro objetivo: desarrollar un software (link al repositorio open source) que permitiera medir en simulaciones cosmológicas la forma y el volumen de los grandes intersticios en la estructura a gran escala del universo, los llamados vacíos cósmicos. Estas regiones con densidades de materia hasta un 90% menores que la media universal se expanden a una tasa mucho mayor que el resto del cosmos y resultan por diversas razones laboratorios ideales para analizar el contenido de energía y materia oscura del Universo.

Las zonas oscuras representan las regiones vacías de materia en esta visualización de una simulación cosmológica, las regiones brillantes se corresponden con los halos de materia oscura.

En el título de nuestro trabajo evocamos la imagen de un queso con agujeros: así como estando en la cola de la fiambrería uno observa un pedazo de queso gruyere o pategrás y ya puede saborearlo con los ojos, nuestra intención era desarrollar un test cosmológico que permitiera medir los valores de los parámetros cosmológicos mediante el estudio de la abundancia de vacíos según su tamaño. Las bases teóricas y prácticas de este tipo de test ya se venían desarrollando en diversos grupos en el mundo, y fueron la base de la tesis doctoral de Carlos Correa en FaMAF (link ads a la tesis).

Visualización de un vacío tipo Popcorn (click para ver la animación)

Cuando comenzamos a trabajar en el problema, hallamos una manera de definir a estos vacíos como la unión de multiples esferas, lo que facilitaba el cálculo de una cantidad importante para la teoría de formación de estas regiones (la densidad integrada en el volumen). No obstante nos encontrarnos con que el cálculo numérico de volúmenes de uniones de varias esferas  mediante Métodos de Montecarlo era sumamente prohibitivo (conocíamos solo fórmulas analíticas de uniones de hasta 3 esferas). Debíamos repetir este cálculo miles de veces para cada una de las decenas de miles de regiones vacías que se encuentran en un volumen cosmológico razonable, en un algoritmo recursivo. Debido a la cantidad de memoria requerida un enfoque basado en GPUs no era muy viable o al menos dado nuestro nivel de conocimiento (nuestras primeras armas en GPUs las habiamos adquirido en una Escuela organizada por el CCAD). Aquí es cuando el pertenecer a una comunidad científica diversa como la del CCAD nos da la primera ayuda: luego de haber sido expuestos durante varias reuniones de usuarios a los métodos desarrollados y utilizados en la comunidad de Ciencias Químicas se nos ocurrió preguntar y nos enteramos que el problema del cálculo de volúmenes de esferas ya se había resuelto en esta ciencia de manera óptima. El cálculo del volumen de macromoléculas en solventes, algo común para ellos, nos daba la pieza que nos faltaba para destrabar nuestro trabajo.

Aún así, luego de desarrollar un software robusto (o al menos eso pensamos) que nos daba resultados correctos científicamente, se nos dificultaba por limitaciones de hardware validar nuestros métodos en simulaciones cosmológicas medianamente competitivas. Eulogia y Mulatona habían sido claves en nuestro trabajo hasta el momento pero seguían siendo insuficientes y el analisis de simulaciones grandes era como remar en dulce de leche. Aquí es cuando el CCAD vuelve a ser determinante: la llegada de Serafín lo cambia todo. Aún no conseguimos explicarnos cómo, pero Serafín utilizando una cantidad equivalente de cores a la que usábamos en Mulatona nos daba un factor entre 20x y 30x en velocidad, permitiéndonos plantear por primera vez un estudio en una simulación suficientemente grande y con estadística adecuada como para plantear un test cosmológico.

Finalmente, en el último tramo de nuestro trabajo, cuando empezábamos a recibir indirectas de nuestros colegas usuarios, preguntando que estábamos haciendo y que podía necesitar tanto cómputo, llamamos la atención de Carlos Bederián, legendario administrador de los equipos del CCAD y autoridad en HPC del país, lo cual nos puso algo nerviosos. Charly, con su ojo clínico se dio cuenta de problemas en la performance de nuestro código, de los desbalances de carga que este tenía y de cómo a veces varios hilos, o incluso nodos enteros quedaban a la espera de que algún core terminara el trabajo que venía realizando. Gracias al trabajo de Charly el código aceleró aún más, entre 6 y 7 veces más rápido que antes, lo cual facilitaba enormemente la tarea: una corrida de más de un día pasaba a correr en el transcurso de una mañana. Esto permitió realizar muchas más corridas y ajustar los parámetros adecuados en el programa y fue determinante para poder redactar nuestro artículo.

Aún estamos a la espera del primer reporte del referee, y esperemos tener una respuesta positiva, no obstante a ello, no quería demorarme en escribir estas líneas en agradecimiento al CCAD. Este centro es más que un lugar que gestiona los equipos de cómputo de la universidad, es una comunidad que está abierta a cualquier científico del país y está pensada para facilitar la tarea de aquellos que investigan, buscando mejorar la ciencia que se realiza en Argentina. Es para mi un privilegio ser usuario del CCAD.

 

por Dante Paz, Instituto de Astronomía Teórica y Experimental, Observatorio Astronómico de la UNC.

Más GPUs para MendietaF2

Mendieta Fase 2, es la supercomputadora más vieja y más nueva del CCAD. Utilizando equipos end-of-life como base, los remozamos con placas GPU NVIDIA Ampere. Pasamos de 14 placas funcionando a 24 y en breve a 26.

7 A30, las 4 restantes ya estaban en los servers.

Las 11 placas nuevas para MendietaF2 que costaron más de 38.000 dólares estadounidenses, surgen del aporte de tres partes:

En este momento MendietaF2 ya tiene 24 placas NVIDIA A30 funcionando. Cuando terminemos de instalar las 2 restantes, completaremos una máquina con 26 GPUs totalizando 135 TFLOPS de doble precisión y 268 TFLOPS para precisión simple, el cluster GPU más grande que el CCAD haya tenido. De las 15 placas anteriores, 11 fueron compradas con fondos del PFI 2021 y 4 con fondos propios del CCAD.

Los workloads de Dinámica Molecular y de Aprendizaje Automático son los grandes beneficiados por esta máquina, que es en definitiva, la concreción de un proyecto planteado en el 2020.

Llevar adelante todo el proceso de compra e importación nos llevó 133 días y su instalación física y lógica, les llevó a Marcos Mazzini y a Marcos Tolcachir una mañana. Eso habla por un lado de la eficiencia de nuestros técnicos, y todo el trabajo previo que hizo Carlos Bederián sobre el stack de software, y por el otro lado habla de la cantidad de procesos administrativos necesarios para realizar una compra al exterior.

Marcos Mazzini y Marcos Tolcachir, colocando las dos A30 por nodo y cambiando la pasta térmica de los dos E5-2680v2.

Agradecemos a toda una cadena de apoyo que hizo posible que hoy las placas estuvieran produciendo ciencia. A SIASA LLC que nos vendió las placas en particular a Andrés S. Marcone, Sonia Alonso y Astrid Valarche; a Adriana LaGattina nuestra oficial de cuenta FedEx que hizo el pickup en EEUU; a Luciana Beladelli de la UVT de CEPROCOR que administra el PFI 2021; a Marcela Giomi y Mario Farías de ComEx-UNC encargados de ROECYT y del pago al exterior, y finalmente a Gonzalo Jaimez y Laura Grassetti del Área Económico Financiera de la PSI-UNC que llevan adelante las cuentas.

 

 

por: Nicolás Wolovick, Director del CCAD-UNC

Técnicos del CCAD en SC22 Digital Experience

Supercomputing es la conferencia #1 del mundo en temas de HPC. Se desarrolló esta semana en Dallas, EEUU. Aunque no teníamos presupuesto para que nuestros técnicos estuvieran allá, hicimos uso de la modalidad remota a fin de que ellos puedan desarrollarse técnicamente y contribuir a la comunidad.

Los CPA Profesionales del CCAD, el Lic. Carlos Bederián y el Lic. Marcos Mazzini participaron de Supercomputing que se desarrolló durante la semana.

A través de su modalidad Digital Experience Carlos y Marcos pudieron acceder a charlas, workshops, presentaciones de trabajos científicos y a una montaña de información para que ambos se mantengan actualizados sobre toda la problemática del HPC.

Este año no sólo invertimos en formación para el personal técnico, sino también en equipamiento, herramientas de trabajo y medidas de seguridad, para que estén en las mejores condiciones para realizar su trabajo. Sabemos que sin ellos, la comunidad podría computar poco o nada. Los cuidamos, son un recurso muy valioso, pero escaso.

Agradecemos especialmente a la Cra. Laura Grassetti y al Cr. Gonzalo Jaimez que hicieron lo imposible y finalmente lograron realizar el pago de la inscripción.

 

por: Nicolás Wolovick, Director del CCAD-UNC

Serafín como caso de estudio mundial

La empresa fabricante de procesadores AMD, tomó a Serafín como un ejemplo sobresaliente a nivel mundial del uso de su tecnología.

La historia de la computación de alto desempeño en la Universidad Nacional de Córdoba, arrancó en 2011 con la llegada de la supercomputadora Cristina. Y desde entonces hasta el presente, con pequeños pasos pero a marcha firme, no dejó de avanzar. En 2021 se inauguraron las instalaciones de Data Center y, casi en simultáneo, el CCAD estrenó su más preciado cluster: Serafín; un equipo marca Supermicro con procesadores AMD, entre 2 y 3 veces más rápido que sus antecesores. Hoy, es modelo y caso de estudio a nivel mundial, gracias al seguimiento de AMD.

Juan Moscoso – AMD

“A partir del acompañamiento de Diego Lavalle, representante oficial de Supermicro en Argentina, y Juan Moscoso de AMD LatAm, pudimos adquirir un 50% más de procesadores por el mismo presupuesto. De hecho, si multiplicas los 120 procesadores AMD EPYC por lo que vale uno en el mercado, el costo, sólo en procesadores, supera al de todo el cluster. Hicimos una compra escandalosamente buena”, asegura Nicolás Wolovick, director del CCAD.

Diego Lavalle – Supermicro

Por su parte, la empresa AMD, a través de diferentes casos de estudio, muestra ejemplos sobresalientes a nivel mundial del uso de su tecnología y, recientemente, Serafín fue incluido dentro de este selecto grupo. “Estamos muy contentos de contar con este caso de referencia, un proyecto referente para toda la región que, de hecho, es el primero en ser publicado en nuestro sitio de casos de estudio a nivel mundial. Tenemos un fuerte compromiso con esta increíble institución y su equipo profesional y aprovechamos esta instancia para dejarla posicionada a la par de otras grandes instituciones reconocidas mundialmente, las cuales también han confiado en nuestra tecnología”, expresa Juan Moscoso en nombre de AMD.

“La importancia para nosotros es que una computadora chica, realmente chica, está ahí. Porque gracias a ella pegamos un salto enorme en capacidad de cálculo y por lo tanto mejoramos nuestras capacidades de producir ciencia. Está siendo utilizada al 100% de su capacidad desde septiembre de 2021 y usando esos recursos se pudieron producir muchas publicaciones de relevancia”, comenta Wolovick. “Agradecemos enormemente esa confianza que han depositado en nuestra marca -agrega Moscoso- y esperamos poder seguir creciendo juntos, poniendo a disposición de toda la comunidad mayores posibilidades para desarrollar investigación de clase mundial desde este lado del continente”. 

“Nuestro Centro brinda servicio a muchos grupos de investigación, de diversas disciplinas y con diferentes necesidades. Tratamos de cubrir todos los flancos y, para eso, necesitamos hacer rendir nuestro presupuesto al máximo, buscando la mejor relación precio – performance posible. En este caso, los procesadores AMD EPYC, además de un precio altamente favorable, ofrecen el balance entre potencia y memoria que estábamos buscando”, explica Carlos Bederián, arquitecto de los clusters del  CCAD.

“Nuestros usuarios están extremadamente felices -cuenta Wolovick-. Serafín es hoy el cluster de preferencia de nuestro Centro, gracias a su velocidad. Hasta ahora se publicaron 38 trabajos científicos y las proyecciones indican que para fin de año vamos a rondar los 50 papers para 2022. Es un claro indicio de que estamos ofreciendo una gran potencia de cómputo a la comunidad científica local”.

“Estamos orgullosos de ser parte de este camino y esperamos seguir colaborando con el CCAD. Así como con otras universidades y centros estudio de Argentina y la región para tener más casos como este de la UNC, desplegado por todos los países de Sudamérica”, concluye Moscoso.

[Documento PDF]

Limpieza profunda del UNC Data Center

Se realizó una limpieza profunda en las instalaciones del CCAD para prevenir un eventual daño en los equipos . Para ello se contrataron los servicios de la empresa TA Telecomunicaciones.

Acicalando a Serafín.

Hace un tiempo que con el personal de la PSI-UNC y los miembros y técnicos del CCAD veíamos con preocupación la tierra que quedó luego de algunas terminaciones finales en el UNC Data Center. Esa tierra eventualmente vuela y pasa por los cientos de pequeñas turbinas que tienen cada uno de los servidores de la PSI y el CCAD. Nos preguntábamos ¿Se limpian los Data Centers? ¿Quién limpia los Data Centers?

La respuesta a la primera pregunta era afirmativa, pero la segunda no tenía una respuesta clara. De las consultas que pudimos hacer a otros centros de datos, el personal mismo hacía la limpieza con sus máquinas y productos. Luego de contactar a TA Telecomunicaciones que nos visitó en abril de este año y saber que ellos se encargan del mantenimiento general del data center de EPEC luego de hacer su instalación, obtuvimos un presupuesto y realizaron la tarea.

Un barrido completo del piso técnico.

Daniel Toranzo y Javier Toranzo, bajo la supervisión de los ingenieros Gabriel Balegno y Gerardo Piermattei, trabajaron una jornada y media para realizar una limpieza profunda de todo el DC. Esta incluyó el piso técnico donde había mayor concentración de tierra y algunos restos de materiales. El listado de tareas que realizaron fué:

  • Limpieza de piso técnico y aspirado bajo piso.
  • Limpieza exterior de tuberías, travesaños y puertas.
  • Limpieza de placas de piso.
  • Limpieza de placas perforadas y rejillas.
  • Limpieza exterior de servidores y equipamiento de red.
Luego del trabajo de la empresa, el UNC Data Center quedó como nuevo, o en cero, en lo que respecta a limpieza.

Se terminó aspirando todo el piso técnico inferior.

 

por Nicolás Wolovick, Director del CCAD-UNC

Nuevo NAS para el CCT-Rosario

El CCT-Rosario adquirió a la firma SIASA mediante financiamiento del SNCAD y la contrapartida de la UNR, equipamiento para mejorar las prestaciones de almacenamientos de sus clusters de HPC. Esté reemplazará y actualizará el anterior NAS que tenían operativo desde 2008 cuya capacidad era 2.7 TiB efectivos y que ya mostraba alarmas de todo tipo.

  • Chasis: Marca Supermicro
  • Mother: Supermicro H12SSL-i
  • Procesador: AMD EPYC 7513 (Zen3 cores) de 32 núcleos, con 128 GiB DDR4.
  • Discos: 6 x 12TiB SAS3 + 2 x SSD 960GiB.
  • Fuente: 2 x 960W.
La configuración del nuevo almacenamiento les permite aumentar la capacidad efectiva a 44 TiB.
En cuanto al software se utilizó TrueNAS@13.0-U2 agrupando los discos en un RAID 6 (4 discos de datos, 2 discos de paridad) con posibilidad de falla de hasta dos discos. El sistema de archivos subyacente es ZFS.
Agradecemos a Javier Rodríguez Peña y a Fabio Busnengo por la información y las fotografías.
por: Nicolás Wolovick, Director del CCAD

En los medios

 

Nuevos representantes del CCAD en el Consejo Asesor del SNCAD

Recientemente, dos integrantes del CCAD desde su fundación, Manuel Merchán y Dante Paz, asumieron como representantes del Centro en el Consejo Asesor del Sistema Nacional de Computación de Alto Desempeño (SNCAD). Con tal motivo, Dante Paz hace una breve reseña de lo que este nombramiento implica.

«El Sistema Nacional de computación de alto desempeño SNCAD es una red Nacional de centros de supercomputación del país que busca promover y coordinar la computación de alto desempeño (HPC) a nivel Nacional. El CCAD forma parte del SNCAD desde su fundación como uno de los mayores centros integrales de esta red.

Siendo en múltiples ocasiones y durante largos intervalos de tiempo, desde la creación del SNCAD, el centro con mayor poder de cómputo y mayor crecimiento del país (en equipamientos y comunidad de usuarios), resultaba inexplicable que hasta el momento no tuviera representación directa en el SNCAD.

Anteriormente la Dra. Patricia Paredes, quien fuera parte del directorio del CCAD y actualmente forma parte de su Consejo Científico, integró el Consejo Asesor del SNCAD pero como representante del CIN, y no del CCAD. No obstante, a través de la Dra. Paredes, el CCAD realizó varios aportes al SNCAD, como fue en su momento el proyecto CFAS del cual se tomaron varios de sus lineamientos para el diseño del plan estratégico del SNCAD.

El Consejo Asesor es el lugar donde se definen y coordinan los programas del SNCAD, y Asesora al MINCYT y al CICyT sobre políticas de HPC. De ese Consejo depende la evaluación e incorporación de equipos de cómputo, así como la evaluación del financiamiento otorgado para computación -por ejemplo, a través de programas como el equipar ciencia del MINCYT- entre otros.

Así mismo de este Consejo Asesor dependerá la evaluación y la asignación de tiempo de cómputo en el centro Nacional que se prevé crear en el data center del Servicio Meteorológico Nacional.

Por todo esto resulta muy importante la participación del CCAD en el Consejo Asesor, teniendo un representante que lleve la experiencia que tiene nuestro centro y participe en la asesoría y toma de decisiones. Para mí es un orgullo y una responsabilidad muy grande representar al CCAD en el Consejo y mi compromiso es brindar el punto de vista y la experiencia que tiene el equipo de trabajo del CCAD, representando lo más fielmente posible la visión que aportamos desde la UNC al Sistema Nacional.»