Intel ASDC dona equipamiento al CCAD

IMG_20160413_135657El Intel ASDC donó equipamiento valioso para el CCAD-UNC. La donación consiste en un lote grande de conectividad Infiniband más algunos servidores y racks.

  • 4 * F-X430073, Rinho, modular 10U 48-port InfiniBand Switch 4X DDR (20Gb/s)
  • 10 * F-X430066, Flextronics, 8-port Infiniband Switch SDR (10Gb/s)
  • 3 * F-X430044, Flextronics, 24-port Infiniband Switch DDR (20 Gb/s)
  • 1 * MTS3600R-1UNC, Mellanox, 36-port unmanaged Infiniband Switch QSFP DDR (20Gb/s)
  • 1 * MTS3600Q-1BNC, Mellanox, 36-port managed Infiniband switch QSFP QDR (40Gb/s).
  • 1 * X6700-CX4, Fujitsu, switch 10 GigE, CXP connection.
  • 6 * S3000PTH S775, Intel, socket 775 1066MHz FSB Etended ATX motherboard, DDR2 memory, Core2Duo processors
  • 2 * ProLiant DL380G5, HP, Xeon E5440 2.83GHz, 2GB, 2U form factor
  • 30 * Memorias Samsung 4GiB
  • 1 * AR3100, APC, rack 42U
  • Lote placas Infiniband
  • Lote cables Infiniband

Este equipamiento pertenecía al Grupo de HPC del Intel ASDC que funcionó hasta 2012 en nuestra ciudad.

La conectividad Infiniband, proveerá de una plataforma para poder conectar con baja latencia y buen ancho de banda a nodos de cómputo que están dispersos en toda la UNC en forma de pequeños clusters.

Visitamos Seshat, el nuevo cluster de CIMEC

IMG_20160419_114110Los CPA de CONICET, Alejandro Dabin y Juan Pablo Dorsch, nos estuvieron mostrando Seshat, el nuevo cluster de CIMEC que está operativo desde Enero de 2016.

La supercomputadora consta de 69 nodos de cálculo y un headnode conectados por Infiniband QDR. Cada nodo de cálculo está compuesto por una pastilla Intel Xeon E5-2640 v2 de cuatro núcleos.

La potencia pico teórica del equipo es:

69 nodos * 1 procesador * 4 núcleos * 2 unidades AVX (1 mult, 1 add) * 4 doubles * 3.7 GHz = 8196 GFLOPS
 
Los administradores corrieron HPL y lograron, consumiendo 10 KW de potencia, un desempeño de 6927 GFLOPS, esto significa una eficiencia del 84.5%, que es un parámetro bastante competitivo para este tipo de clusters.
 
IMG_20160419_113652
 
 
La red infiniband está configurada en modo full-non-blocking y esto les permite lograr una eficiencia del 100% corriendo Salome en 40 nodos para la resolución de un único problema de multifísica.