Mudanza de Mendieta al datacenter de la PSI

Durante la semana del 30/07/2016 al 7/8/2016 se procederá IMG_20160802_140838774a la migración del cluster Mendieta hacia el datacenter de la Prosecretaria de Informática (PSI-UNC). Esta migración redundará en un mejor del servicio en términos de suministro eléctrico y disponibilidad de los equipos de refrigeración.

También se migrará el servidor de datos (NAS) que luego quedará conectado al cluster Cristina a través de fibra óptica.IMG_20160802_153236768

El Rector de la UNC visitó Cristina y Mendieta

IMG_20160629_120116270_HDREl pasado miércoles 29 de Junio, el recientemente elegido Rector de la UNC, Dr. Hugo Juri en compañía del nuevo Decano de la FCEFyN Pablo Recabarren, visitaron las instalaciones del CCAD-UNC donde se interiorizaron acerca del equipamiento de HPC con el que cuenta el Centro de Computación de Alto Desempeño de la UNC, la utilización por parte de la comunidad científica y los planes de expansión a futuro.

Intel ASDC dona equipamiento al CCAD

IMG_20160413_135657El Intel ASDC donó equipamiento valioso para el CCAD-UNC. La donación consiste en un lote grande de conectividad Infiniband más algunos servidores y racks.

  • 4 * F-X430073, Rinho, modular 10U 48-port InfiniBand Switch 4X DDR (20Gb/s)
  • 10 * F-X430066, Flextronics, 8-port Infiniband Switch SDR (10Gb/s)
  • 3 * F-X430044, Flextronics, 24-port Infiniband Switch DDR (20 Gb/s)
  • 1 * MTS3600R-1UNC, Mellanox, 36-port unmanaged Infiniband Switch QSFP DDR (20Gb/s)
  • 1 * MTS3600Q-1BNC, Mellanox, 36-port managed Infiniband switch QSFP QDR (40Gb/s).
  • 1 * X6700-CX4, Fujitsu, switch 10 GigE, CXP connection.
  • 6 * S3000PTH S775, Intel, socket 775 1066MHz FSB Etended ATX motherboard, DDR2 memory, Core2Duo processors
  • 2 * ProLiant DL380G5, HP, Xeon E5440 2.83GHz, 2GB, 2U form factor
  • 30 * Memorias Samsung 4GiB
  • 1 * AR3100, APC, rack 42U
  • Lote placas Infiniband
  • Lote cables Infiniband

Este equipamiento pertenecía al Grupo de HPC del Intel ASDC que funcionó hasta 2012 en nuestra ciudad.

La conectividad Infiniband, proveerá de una plataforma para poder conectar con baja latencia y buen ancho de banda a nodos de cómputo que están dispersos en toda la UNC en forma de pequeños clusters.

Visitamos Seshat, el nuevo cluster de CIMEC

IMG_20160419_114110Los CPA de CONICET, Alejandro Dabin y Juan Pablo Dorsch, nos estuvieron mostrando Seshat, el nuevo cluster de CIMEC que está operativo desde Enero de 2016.

La supercomputadora consta de 69 nodos de cálculo y un headnode conectados por Infiniband QDR. Cada nodo de cálculo está compuesto por una pastilla Intel Xeon E5-2640 v2 de cuatro núcleos.

La potencia pico teórica del equipo es:

69 nodos * 1 procesador * 4 núcleos * 2 unidades AVX (1 mult, 1 add) * 4 doubles * 3.7 GHz = 8196 GFLOPS
 
Los administradores corrieron HPL y lograron, consumiendo 10 KW de potencia, un desempeño de 6927 GFLOPS, esto significa una eficiencia del 84.5%, que es un parámetro bastante competitivo para este tipo de clusters.
 
IMG_20160419_113652
 
 
La red infiniband está configurada en modo full-non-blocking y esto les permite lograr una eficiencia del 100% corriendo Salome en 40 nodos para la resolución de un único problema de multifísica.

La UNC renovó por un año más su “GPU Education Center” de NVIDIA

gec-logoLa empresa NVIDIA reconoció por un año más los esfuerzos sostenidos que realiza en Educación de Tecnologías GPU y renovó por un año más el GPU Education Center de la UNC por intermedio del curso de grado y posgrado Computación Paralela que se empezó a dictar esta semana en FaMAF.

Esta distinción se obtuvo por primera vez en 2011 gracias a los esfuerzos del GPGPU Computing Group de FaMAF y se mantuvo durante estos 5 años de manera continua.

La UNC es también GPU Research Center que reconoce el trabajo en investigación que se realiza en tecnologías GPU.

Nuevo cluster del DC@UBA

A fines del año pasado el Departamento de Computación de la Facultad de Ciencias Exactas y Naturales de la UBA, puso en marcha PPL, un cluster que reemplaza al cluster CeCAR que era similar a Cristina.

Las características de este nuevo cluster son:

  • 30 nodos con dual AMD Opteron 6320, 64 GiB de RAM.
  • Conectividad Infiniband.
  • 24 placas aceleradoras NVIDIA Tesla K20c montadas en 12 de los nodos.
  • NAS de 120 TiB.

El RPeak de este equipo es de aproximadamente 33.44 TFLOPS de doble precisión, donde las aceleradoras aportan el 84% de esta performance.

Carlos Bederián en el BSC

El Lic. Carlos Bederián, miembro del CCAD-UNC obtuvo una de las 15 "Becas Externas para Miembros de la Carrera de Personal de Apoyo" (CPA-CONICET) para trabajar en el Computer Applications in Science and Engineering (CASE) del Barcelona Supercomputing Center (BSC) desarrollando Alya.

charie_marenostrum

El Lic. Bederián estará trabajando en Barcelona junto a Mariano Vázquez de Febrero a Abril de 2016, mejorando la performance single-core de Alya, un código de multifísica que ya ha demostrado una escalabilidad superlativa en supercomputadoras de cien mil núcleos y PFLOPS de potencia de cálculo.

Incorporación de Antonio Russo al CCAD-UNC

antonDesde el día lunes 14 de Diciembre, Antonio Russo es CPA-CONICET del CCAD-UNC.

Antonio tiene una larga trayectoria en IT y en especial en HPC. Desde 2009 Antonio participa en todos los procesos de licitación, instalación, puesta en marcha y administración de los clusters de cálculo y visualización de EDF en París, Francia.
EDF es la empresa de energía eléctrica de Francia que tiene en la actualidad 3 sistemas en Top500 Nov15: #121, #171, #278.

Antonio es además una persona muy ligada al movimiento FLOSS. Ha sido el coordinador del proyecto FUSS que implicó la migración de 2460 puestos de trabajo y 86 servidores a una versión personalizada de la distribución Debian.