Entrevista de Continental Córdoba al Dr. Oscar Reula

DSC_3206El sábado 3 de Septiembre en el programa "Ciudad Universitaria" de Continental Córdoba, el periodista Lucas Viano entrevistó al Director del CCAD-UNC por el IBM Faculty Award recibido por el Grupo de GPGPU Computing.

El Dr. Reula destacó la importancia del premio para el Grupo y recapituló la historia del CCAD y sus clusters.

(enlace a la nota original)

Mendieta tiene nueva casa

IMG_20160809_195358El cluster Mendieta ya ha sido relocalizado y puesto en funcionamiento en el Datacenter de la Prosecretaría de Informática (PSI) de la UNC.

También fue mudado el NAS que provee de almacenamiento permantente a Mendieta y a Cristina. La conexión hacia la Sala de Clusters de FCEFyN se realiza por fibra óptica y con un ancho de banda específicamente dedicado a esto.

Se aprovechó la mudanza para reconfigurar y mejorar algunos aspectos del cluster.

  • Se agregaron 14 aceleradoras Intel Xeon Phi 31S1P, de 57 núcleos a 1.1 GHz, unidades vectoriales de 512 bits de ancho y 8 GiB de RAM GDDR5. Esto incorpora 14.044 TFLOPS de potencia de cálculo de doble precisión. Las 14 placas están una en cada nodo de la ampliación de Mendieta y se configuraron en modo nativo.
  • Se movieron las 12 Tesla M2090 y las 8 Tesla K20c a los 8 nodos originales de Mendieta. Se agruparon 4 nodos con 2 K20c cada uno y 4 nodos con 3 Tesla M2090 cada uno.
  • Se actualizó la placa madre del NAS con un dual Xeon E5-2620v3 y 64 GiB de RAM. Esto le dará mayor ancho de banda y prestaciones paralelas al NAS que fuera adquirido en 2010 para el cluster Cristina.

Todo el proceso fue llevado adelante por personal del CCAD-UNC con colaboración del personal del IFEG-CONICET y del IATE-CONICET.

La nueva sala devengará en mayor estabilidad eléctrica y térmica de los equipos, mejorando aun más la disponibildad de ellos para cálculo de alto desempeño.

Mudanza de Mendieta al datacenter de la PSI

Durante la semana del 30/07/2016 al 7/8/2016 se procederá IMG_20160802_140838774a la migración del cluster Mendieta hacia el datacenter de la Prosecretaria de Informática (PSI-UNC). Esta migración redundará en un mejor del servicio en términos de suministro eléctrico y disponibilidad de los equipos de refrigeración.

También se migrará el servidor de datos (NAS) que luego quedará conectado al cluster Cristina a través de fibra óptica.IMG_20160802_153236768

El Rector de la UNC visitó Cristina y Mendieta

IMG_20160629_120116270_HDREl pasado miércoles 29 de Junio, el recientemente elegido Rector de la UNC, Dr. Hugo Juri en compañía del nuevo Decano de la FCEFyN Pablo Recabarren, visitaron las instalaciones del CCAD-UNC donde se interiorizaron acerca del equipamiento de HPC con el que cuenta el Centro de Computación de Alto Desempeño de la UNC, la utilización por parte de la comunidad científica y los planes de expansión a futuro.

Intel ASDC dona equipamiento al CCAD

IMG_20160413_135657El Intel ASDC donó equipamiento valioso para el CCAD-UNC. La donación consiste en un lote grande de conectividad Infiniband más algunos servidores y racks.

  • 4 * F-X430073, Rinho, modular 10U 48-port InfiniBand Switch 4X DDR (20Gb/s)
  • 10 * F-X430066, Flextronics, 8-port Infiniband Switch SDR (10Gb/s)
  • 3 * F-X430044, Flextronics, 24-port Infiniband Switch DDR (20 Gb/s)
  • 1 * MTS3600R-1UNC, Mellanox, 36-port unmanaged Infiniband Switch QSFP DDR (20Gb/s)
  • 1 * MTS3600Q-1BNC, Mellanox, 36-port managed Infiniband switch QSFP QDR (40Gb/s).
  • 1 * X6700-CX4, Fujitsu, switch 10 GigE, CXP connection.
  • 6 * S3000PTH S775, Intel, socket 775 1066MHz FSB Etended ATX motherboard, DDR2 memory, Core2Duo processors
  • 2 * ProLiant DL380G5, HP, Xeon E5440 2.83GHz, 2GB, 2U form factor
  • 30 * Memorias Samsung 4GiB
  • 1 * AR3100, APC, rack 42U
  • Lote placas Infiniband
  • Lote cables Infiniband

Este equipamiento pertenecía al Grupo de HPC del Intel ASDC que funcionó hasta 2012 en nuestra ciudad.

La conectividad Infiniband, proveerá de una plataforma para poder conectar con baja latencia y buen ancho de banda a nodos de cómputo que están dispersos en toda la UNC en forma de pequeños clusters.

Visitamos Seshat, el nuevo cluster de CIMEC

IMG_20160419_114110Los CPA de CONICET, Alejandro Dabin y Juan Pablo Dorsch, nos estuvieron mostrando Seshat, el nuevo cluster de CIMEC que está operativo desde Enero de 2016.

La supercomputadora consta de 69 nodos de cálculo y un headnode conectados por Infiniband QDR. Cada nodo de cálculo está compuesto por una pastilla Intel Xeon E5-2640 v2 de cuatro núcleos.

La potencia pico teórica del equipo es:

69 nodos * 1 procesador * 4 núcleos * 2 unidades AVX (1 mult, 1 add) * 4 doubles * 3.7 GHz = 8196 GFLOPS
 
Los administradores corrieron HPL y lograron, consumiendo 10 KW de potencia, un desempeño de 6927 GFLOPS, esto significa una eficiencia del 84.5%, que es un parámetro bastante competitivo para este tipo de clusters.
 
IMG_20160419_113652
 
 
La red infiniband está configurada en modo full-non-blocking y esto les permite lograr una eficiencia del 100% corriendo Salome en 40 nodos para la resolución de un único problema de multifísica.

La UNC renovó por un año más su “GPU Education Center” de NVIDIA

gec-logoLa empresa NVIDIA reconoció por un año más los esfuerzos sostenidos que realiza en Educación de Tecnologías GPU y renovó por un año más el GPU Education Center de la UNC por intermedio del curso de grado y posgrado Computación Paralela que se empezó a dictar esta semana en FaMAF.

Esta distinción se obtuvo por primera vez en 2011 gracias a los esfuerzos del GPGPU Computing Group de FaMAF y se mantuvo durante estos 5 años de manera continua.

La UNC es también GPU Research Center que reconoce el trabajo en investigación que se realiza en tecnologías GPU.

Nuevo cluster del DC@UBA

A fines del año pasado el Departamento de Computación de la Facultad de Ciencias Exactas y Naturales de la UBA, puso en marcha PPL, un cluster que reemplaza al cluster CeCAR que era similar a Cristina.

Las características de este nuevo cluster son:

  • 30 nodos con dual AMD Opteron 6320, 64 GiB de RAM.
  • Conectividad Infiniband.
  • 24 placas aceleradoras NVIDIA Tesla K20c montadas en 12 de los nodos.
  • NAS de 120 TiB.

El RPeak de este equipo es de aproximadamente 33.44 TFLOPS de doble precisión, donde las aceleradoras aportan el 84% de esta performance.