{{:logohgpc.jpg?200|}} El supercomputador de la Universidad de Oriente es un sistema GNU/Linux de procesamiento en paralelo para ejecutar grandes códigos de computación que requieren mucho tiempo y potencia de cálculo. **Misión**: * Proveer una infraestructura de HPC y Big Data a los investigadores de las Universidades, así como dar soporte y entrenamiento a los usuarios * Ser parte de la red académica de supercómputo HPC-Cuba, que comprende los HPCs de la Universidad Central de Las Villas, la Universidad de Oriente y BioCubaFarma. **Lema**: Dando poder a los investigadores. ===== Aviso importante ===== Se ha realizado una nueva instalación del HPC UO para actualizar el sistema operativo y las aplicaciones. Ahora el mismo está formado por dos clústeres con los siguientes recursos computacionales: ^Nodo de conexión^Servidor^Cantidad^Procesador^Cores/nodo^RAM/nodo(GB)^Conexión| |log2.uo.hpc.cu|DELL Power Edge C6145|14|AMD Opteron 6136|16 (CPU)|64|InfiniBand 40 Gbps | |login.uo.hpc.cu|DELL R720|1|Intel Xeon E5-2609 (Sandy Bridge-EP)|4 (CPU) \\ 2560 (GPU)|48|Infiniband 40 Gbps | A partir del 16 de octubre de 2023, para el trabajo en el HPC UO, se procederá de la siguiente forma: **1. Para cálculos con GPU** Se mantiene la misma forma de acceso y envío de los trabajos.\\ - Para iniciar sesión: @login.uo.hpc.cu\\ - Se usan los scripts de envío actuales. **2. Para cálculos con CPU** Los dos únicos cambios son la forma de acceder al clúster y de cargar los módulos.\\ - Para acceder al clúster: @log2.uo.hpc.cu (Note el **log2**)\\ - Para los detalles de la forma de cargar los módulos en los scripts de envío vea la [[start#Datos del clúster para cálculos con CPU|sección]].) **3. Cronograma de migración** Los usuarios podrán migrar sus directorios de trabajo al //log2// desde el 27 de septiembre hasta el 15 de octubre de 2023. ===== Datos del clúster para cálculos con CPU ===== **Hardware** Nodo de conexión: log2.uo.hpc.cu. 16 núcleos de procesadores y 64 GB RAM.\\ Nodos de cálculos: c01-c13. Cada uno con 32 núcleos de procesadores y 64 GB RAM.\\ Interconexión: Infiniband 40 Gbps **Sistema de Ficheros** - Directorio Home:\\ Camino: ~\\ Los directorios //home// de los usuarios están exportados por NFS. Use el directorio //home// para archivar los ficheros de trabajo. Tenga en cuenta que a estos directorios no se les realiza respaldo. - Directorio scratch:\\ Camino: /scratch\\ Tamaño: 2 TB\\ El directorio /scratch está exportado por NFS. Se usa para almacenar los ficheros temporales creados por las aplicaciones.\\ En /scratch están creados los subdirectorios g09/ y g16/ para los ficheros temporales de las aplicaciones Gaussian 09 y 16 respectivamente.También tiene un subdirectorio users/ en el que los usuarios pueden crear subdirectorios personales para almacenar los ficheros temporales de sus cálculos. **Administrador de Recursos/Cola** El administrador de recursos es SLURM. ^Partición/Cola^Descripción^Límite de tiempo| |//public//|Todos los nodos de cómputo tienen 32 núcleos de procesadores|Ninguno| **Software** Para trabajar con las aplicaciones hay que cargar previamente los módulos correspondientes. El único cambio que hay que hacer en el script de envío es el siguiente: # Cargar módulos module purge module load /opt/apps/easybuild/modules/all module load ... A continuación, se presentan las aplicaciones más usadas y los módulos a cargar: ^Aplicaciones^Módulos a cargar| |AutoDock-Vina|AutoDock-Vina/1.1.2-linux_x86| |AutoDock|AutoDock/4.2.6-GCC-10.3.0| |Bison|Bison/3.8.2| |CASTEP|CASTEP/23.1| |CMake|CMake/3.18.4-GCCcore-10.2.0| |DFTB Plus|DFTB+/22.2| |EasyBuild|EasyBuild/4.6.2| |FFTW|fftw/3.3.10| |Gaussian|gaussian/g09 o gaussian/g16| |GCC|GCC/10.3.0| |GNU12|gnu12/12.2.0| |GROMACS|GROMACS/19| |GULP|GULP/5| |Julia|Julia/1.8.2-linux-x86_64| |LAMMPS|LAMMPS/20190807| |LAPACK|LAPACK/3.9.1-GCC-10.2.0| |M4|M4/1.4.18-GCCcore-8.3.0| |Matlab|matlab/R2020a| |make|make/4.3-GCCcore-10.2.0| |OpenBLAS|OpenBLAS/0.3.7-GCC-8.3.0| |OpenMPI|OpenMPI/4.0.5-GCC-10.2.0| |QuantumESPRESO|QuantumESPRESSO/6.5| |R|gnu12/12.2.0 openmpi4/4.1.4 R/4.2.1| |Perl|Perl/5.30.0-GCCcore-8.3.0| |ScaLAPACK|gnu12/12.2.0 openmpi4/4.1.4 scalapack/2.2.0| |Anaconda3|Anaconda3/2022.05 (Ver Nota2)| |Miniconda3|Miniconda3/4.9.2 (Ver Nota 2)| |Python|(Ver Nota 2)| **Nota 1** – Los restantes módulos pueden verse con el comando: module available **Nota 2** – No hay ninguna versión de Python instalada y cada usuario puede instalar la versión de su preferencia para trabajar. Se recomienda el uso de //entornos virtuales//. Por favor, vea la documentación sobre [[https://packaging.python.org/guides/installing-using-pip-and-virtual-environments|entornos virtuales]] o [[https://conda.io/projects/conda/en/latest/user-guide/tasks/manage-environments.html#activating-an-environment|conda]].