1. Inicio
  2. Documentos
  3. Manual de uso
  4. 8. GPGPU
  5. GPGPU

GPGPU

Hadware disponible

  • 2 x Nvidia Tesla C2050 (CUDA 8.0) en nodo con Intel Xeon X5690@3.47GHz, 8 cores, 64GB RAM
  • Nvidia A100 80GB (CUDA 12.1) en nodo AMD EPYC 9474F@3.60GHz, 96 cores, 1536GB RAM

 

 

¿Cómo enviar trabajos que hagan uso de las GPUs?

 

Carga del entorno de desarrollo

Carga del compilador de CUDA

module load CUDA/8.0.61

 

Envio de trabajos

Mediante el script slanzarv

El flag –gpu envía el trabajo a la partición gpgpu y hace uso de una de las tarjetas gráficas. Por defecto, además de la GPU, se reservarán 4 cores y 40GB de RAM.

 

Ejemplo:

#slanzarv --gpu miprogramacuda

 

Manualmente

Añadir al archivo de descripción de trabajo la partición y la reserva de GPUs

#SBATCH --partition=gpgpu

#SBATCH --gres=gpu:fermi:1

Cambiando esta última línea (–gres=gpu:fermi:2), se puede hacer uso de las dos GPUs para un mismo trabajo

¿Cómo podemos ayudarte?