Información y ayuda

HPC Universidad de Oriente

Herramientas de usuario

Herramientas del sitio


start

El supercomputador de la Universidad de Oriente es un sistema GNU/Linux de procesamiento en paralelo para ejecutar grandes códigos de computación que requieren mucho tiempo y potencia de cálculo.

Misión:

  • Proveer una infraestructura de HPC y Big Data a los investigadores de las Universidades, así como dar soporte y entrenamiento a los usuarios
  • Ser parte de la red académica de supercómputo HPC-Cuba, que comprende los HPCs de la Universidad Central de Las Villas, la Universidad de Oriente y BioCubaFarma.

Lema:

Dando poder a los investigadores.

Aviso importante

Se ha realizado una nueva instalación del HPC UO para actualizar el sistema operativo y las aplicaciones. Ahora el mismo está formado por dos clústeres con los siguientes recursos computacionales:

Nodo de conexiónServidorCantidadProcesadorCores/nodoRAM/nodo(GB)Conexión
log2.uo.hpc.cuDELL Power Edge C614514AMD Opteron 613616 (CPU)64InfiniBand 40 Gbps
login.uo.hpc.cuDELL R7201Intel Xeon E5-2609 (Sandy Bridge-EP)4 (CPU)
2560 (GPU)
48Infiniband 40 Gbps

A partir del 16 de octubre de 2023, para el trabajo en el HPC UO, se procederá de la siguiente forma:

1. Para cálculos con GPU

Se mantiene la misma forma de acceso y envío de los trabajos.
- Para iniciar sesión: <nombre_usuario_actual>@login.uo.hpc.cu
- Se usan los scripts de envío actuales.

2. Para cálculos con CPU

Los dos únicos cambios son la forma de acceder al clúster y de cargar los módulos.
- Para acceder al clúster: <nombre_usuario_actual>@log2.uo.hpc.cu (Note el log2)
- Para los detalles de la forma de cargar los módulos en los scripts de envío vea la sección.)

3. Cronograma de migración

Los usuarios podrán migrar sus directorios de trabajo al log2 desde el 27 de septiembre hasta el 15 de octubre de 2023.

Datos del clúster para cálculos con CPU

Hardware

Nodo de conexión: log2.uo.hpc.cu. 16 núcleos de procesadores y 64 GB RAM.
Nodos de cálculos: c01-c13. Cada uno con 32 núcleos de procesadores y 64 GB RAM.
Interconexión: Infiniband 40 Gbps

Sistema de Ficheros

- Directorio Home:
Camino: ~
Los directorios home de los usuarios están exportados por NFS. Use el directorio home para archivar los ficheros de trabajo. Tenga en cuenta que a estos directorios no se les realiza respaldo.

- Directorio scratch:
Camino: /scratch
Tamaño: 2 TB
El directorio /scratch está exportado por NFS. Se usa para almacenar los ficheros temporales creados por las aplicaciones.
En /scratch están creados los subdirectorios g09/ y g16/ para los ficheros temporales de las aplicaciones Gaussian 09 y 16 respectivamente.También tiene un subdirectorio users/ en el que los usuarios pueden crear subdirectorios personales para almacenar los ficheros temporales de sus cálculos.

Administrador de Recursos/Cola

El administrador de recursos es SLURM.

Partición/ColaDescripciónLímite de tiempo
publicTodos los nodos de cómputo tienen 32 núcleos de procesadoresNinguno

Software

Para trabajar con las aplicaciones hay que cargar previamente los módulos correspondientes. El único cambio que hay que hacer en el script de envío es el siguiente:

# Cargar módulos
module purge
module load /opt/apps/easybuild/modules/all
module load <modulo1> <modulo2> ...

A continuación, se presentan las aplicaciones más usadas y los módulos a cargar:

AplicacionesMódulos a cargar
AutoDock-VinaAutoDock-Vina/1.1.2-linux_x86
AutoDockAutoDock/4.2.6-GCC-10.3.0
BisonBison/3.8.2
CASTEPCASTEP/23.1
CMakeCMake/3.18.4-GCCcore-10.2.0
DFTB PlusDFTB+/22.2
EasyBuildEasyBuild/4.6.2
FFTWfftw/3.3.10
Gaussiangaussian/g09 o gaussian/g16
GCCGCC/10.3.0
GNU12gnu12/12.2.0
GROMACSGROMACS/19
GULPGULP/5
JuliaJulia/1.8.2-linux-x86_64
LAMMPSLAMMPS/20190807
LAPACKLAPACK/3.9.1-GCC-10.2.0
M4M4/1.4.18-GCCcore-8.3.0
Matlabmatlab/R2020a
makemake/4.3-GCCcore-10.2.0
OpenBLASOpenBLAS/0.3.7-GCC-8.3.0
OpenMPIOpenMPI/4.0.5-GCC-10.2.0
QuantumESPRESOQuantumESPRESSO/6.5
Rgnu12/12.2.0 openmpi4/4.1.4 R/4.2.1
PerlPerl/5.30.0-GCCcore-8.3.0
ScaLAPACKgnu12/12.2.0 openmpi4/4.1.4 scalapack/2.2.0
Anaconda3Anaconda3/2022.05 (Ver Nota2)
Miniconda3Miniconda3/4.9.2 (Ver Nota 2)
Python(Ver Nota 2)

Nota 1 – Los restantes módulos pueden verse con el comando:

module available

Nota 2 – No hay ninguna versión de Python instalada y cada usuario puede instalar la versión de su preferencia para trabajar. Se recomienda el uso de entornos virtuales. Por favor, vea la documentación sobre entornos virtuales o conda.

start.txt · Última modificación: 2023/09/27 15:07 por Beatriz Valdés Díaz