Información

Información General

El supercomputador PROTEUS es el principal servicio que el Instituto Interuniversitario Andaluz Carlos I de Física Teórica y Computacional (iC1) ofrece a sus miembros y colaboradores. Proporciona un entorno HPC (High Performance Computing) que incorpora las últimas tendencias en computación y está optimizado para cálculos y simulaciones científicos. Está formado por un clúster de nodos de alto rendimiento que con capacidades de cloud computing y cloud storage.

Junto al supercomputador Alhambra de la Universidad de Granada, sitúan a la ésta en una destacada posición en la Supercomputación Científica Española.

Especificaciones y Datos de Interés

Algunos datos sobre PROTEUS:

  • Potencia de cómputo: ~90 Teraflops (90*1012 operaciones en doble precisión por segundo)
  • Memoria principal:  7,5 Terabytes (nodos con 384, 256, 96, 64, 48, 16 y 8GB)
  • Almacenamiento: 240 Terabytes de espacio compartido y 140TB para backups
  • Núcleos de ejecución: +2300 núcleos (repartidos en nodos de 8, 12, 20, 24 y 32 núcleos, de 2,33GHz a 3,45GHz)
  • Número de nodos: 170 nodos
  • Red de comunicación: Infiniband FDR para comunicación entre procesos de cálculo, GigaEthernet para gestión y E/S con 10Gb troncales entre switches y nodos de almacenamiento
  • Número de usuarios: ~50
  • Ranking: entre los primeros de España en computación científica

Historia

PROTEUS, desde su nacimiento, ha tenido una gran acogida y demanda, por lo que ha sido necesaria una constante serie de mejoras y ampliaciones.

1997: Se inaugura el servicio de supercomputación en el iC1. En aquel entonces, se contaba con 24 procesadores y una potencia de 200 GFLOPs. El entorno de ejecución se basaba en MOSIX y las cuentas de los usuarios estaban compartidas por NFS.

2004: se amplió a 48 procesadores, con una potencia de unos 500 GFLOPs.

2007: primera gran actualización. Considerable aumento de la potencia (160 procesadores y 1500 GFLOPs). Incorporación de personal técnico con dedicación completa que introduce el gestor de colas Condor y el sistema de archivos distribuido GlusterFS.

2008: nueva ampliación. Pasamos a tener 600 procesadores y 5500 GLOPs. Como mejoras en el entorno, se cuentan con puntos de restauración de los programas, redundancia de datos y almacenamiento secundario para copias de seguridad.

2012: se amplia la potencia hasta 1100 procesadores y 13000 GFLOPs. Las novedades en el sistema son un mejor control sobre programas paralelos y con grandes necesidades de memoria, almacenamiento en la nube y la incorporación de tarjetas gráficas programables. El sistema de archivos pasa a estar basado en CephFS.

2015: nuevamente, se amplia el número de procesadores y memoria (1300 procesadores y 27000 GFLOPs). Se crea una red de baja latencia, Infiniband FDR, que conecta los últimos nodos para la ejecución de trabajos distribuidos mediante MPI.

2016: se refuerzan los servidores de gestión para que el cluster sea más robusto frente a fallos hardware, pudiendo seguir funcionando a pesar de que estos provoquen la caída de algunos nodos, obtenido mediante la virtualización de los nodos de gestión. Se mejora la red troncal de E/S con conexiones de 10G. Los backups se hacen sobre cintas. Se crea el sistema de archivos LUSTRE para alto ratio de E/S y escrituras paralelas.

2019: nueva gran actualización. 1100 nuevos procesadores (2300 en total y 90000GFLOPs). Aumento y mejora de la capacidad del sistema de archivos. Nodos de ejecución diskless. Licencias Mathematica. Gestor de colas SLURM. Entorno de módulos Lmod.