El supercomputador PROTEUS es el principal servicio que el Instituto Interuniversitario Andaluz Carlos I de Física Teórica y Computacional (iC1) ofrece a sus miembros y colaboradores. Proporciona un entorno HPC (High Performance Computing) que incorpora las últimas tendencias en computación y está optimizado para cálculos y simulaciones científicos. Está formado por un clúster de nodos de alto rendimiento con capacidades de cloud computing y cloud storage.

Junto al supercomputador Alhambra de la Universidad de Granada, sitúan a la ésta en una destacada posición en la Supercomputación Científica Española.

Especificaciones y Datos de Interés

_
  • Potencia de cómputo: ~90 Teraflops (90*1012 operaciones en doble precisión por segundo)
  • Memoria principal: 7,5 Terabytes (nodos con 384, 256, 96, 64, 48, 16 y 8GB)
  • Almacenamiento: 240 Terabytes de espacio compartido y 140TB para backups
  • Núcleos de ejecución: +2300 núcleos (repartidos en nodos de 8, 12, 20, 24 y 32 núcleos, de 2,33GHz a 3,45GHz)
  • Número de nodos: 170 nodos
  • Red de comunicación: Infiniband FDR para comunicación entre procesos de cálculo, GigaEthernet para gestión y E/S con 10Gb troncales entre switches y nodos de almacenamiento
  • Número de usuarios: ~50
  • Ranking: entre los primeros de España en computación científica

Aplicaciones y Recursos

_

PROTEUS está gestionado por software libre GNU/Linux. Su arquitectura es de tipo Beowulf, (implantado por primera vez por la NASA y ampliamente utilizado, entre otras, el propio Google), cuya mayor ventaja es que con un presupuesto muy ajustado se puede obtener una gran potencia de cálculo mientras que su mantenimiento es poco costoso.

La anterior versión de PROTEUS llegó incluso a desbordarse por el uso intensivo del mismo, pues los científicos han estado utilizando sus recursos al cien por cien desde que se inauguró en 2008. Desde entonces se encuentra en constante ampliación y mejora.

Este éxito de uso es atribuible a la política de gestión de PROTEUS, que no establece límite temporal en la ejecución de los procesos (algunos llegan a estar en ejecución durante seis meses), ni se asignan cuotas de memoria ni de uso del disco duro, sino que hay un gestor automatizado (Condor) que, en caso de saturación, prioriza al usuario que menos tiempo de cálculo ha utilizado hasta ese momento.

Investigación
  • AstrofísicaEstudio de galaxias y cosmología
  • Bioinformática y biofísicaADN, dinámica de procesos celulares
  • NeurocienciaEstudio del cerebro y medios neuronales
  • Física estadísticaSistemas fuera del equilibrio
  • SociofísicaDinámica de poblaciones
  • Física cuánticaTeoría de la información, computación cuántica
_

¿Necesitas más información?

_