La plateforme rassemble 4448 cœurs, 26 GPUs et 34.2 To de mémoire. La puissance de calcul est évaluée à environ 400 TFlops. Elle est notamment constituée de 72 nœuds fins, 16 nœuds épais, 6 nœuds bi-gpus et 3 nœuds quad-gpus et 4 nœuds tri-fpga. Un nœud de visualisation est également disponible avec Open OnDemand.
Le fonctionnement du cluster se fait via des partitions qui ont parfois des limitations.
Nœuds de calcul
CPU
- 48 nœuds fins (2017) – Serveurs bi-processeur Intel(R) Xeon(R) CPU E5-2680 v4 @ 2.40GHz avec 128 Go de mémoire
-> 28 cœurs et 4 Go/cœur - 24 nœuds fin (2022) – Serveurs bi-processeur AMD EPYC 7513 @ 2.60GHz avec 256 Go de mémoire
-> 64 cœurs et 4000 Mo/cœur - 12 nœuds épais (2017)- Serveurs bi-processeur Intel(R) Xeon(R) CPU E5-2680 v4 @ 2.40GHz avec 512 Go de mémoire
-> 28 cœurs et 16 Go/cœur - 4 noeuds épais (2022) – Serveurs bi-processeur AMD EPYC 7513 @ 2.60GHz avec 1 To de mémoire
-> 64 cœurs et 16000 Mo/cœur
GPU
- 6 nœuds bi-gpus (2019) – Serveurs bi-processeur Intel(R) Xeon(R) Gold 6148 CPU @ 2.40GHz avec 384 Go de mémoire et 2 cartes GPUs Tesla V100-32G
-> 40 cœurs, 2 GPUs Tesla V100 et 9 Go/cœur - 2 nœuds quad-gpus (2019) – Serveurs bi-processeur Intel(R) Xeon(R) Gold 6148 CPU @ 2.40GHz avec 768 Go de mémoire et 4 cartes GPUs Tesla V100 SXM2-32G-NVLink
-> 40 cœurs, 4 GPUs Tesla V100 et 18 Go/cœur - 1 nœud quad-gpus (2022) – serveur bi-processeur AMD EPYC 7513 @ 2.60GHz avec 1 To de mémoire avec 4 GPU Tesla A100
-> 64 cœurs, 4 GPUs Tesla A100 et 16000Mo /cœur
FPGA
- 4 nœuds tri-fpga (2022) – 4 serveurs bi-processeur AMD EPYC 7502 @ 2.50GHz avec 1 To de mémoire avec 3 cartes FPGA Xilinx U280
-> 64 cœurs, 3 cartes FPGA et 16000 Mo/cœur
Visualisation
- Un nœud de visualisation (2019) : Un serveur bi-processeur Intel(R) Xeon(R) Gold 6150 CPU @ 2.70GHz, 192 Go de mémoire et une carte GPU Tesla P40 (36 cœurs, 192Go de RAM et 1 GPU Tesla P40)
Hébergement
La plateforme héberge
- 8 nœuds moyens (40 cœurs et 384 Go de RAM) dans le cadre du projet ARTISTIC
- 1 noeud gpu (16 coeurs, 1 GPU Tesla T4 et 32 Go de RAM) pour le laboratoire LAMFA
Stockage
- /users : 512 To : Répertoires des utilisateurs, des résultats
- /scratch : 292 To : Système de fichier distribué rapide beeGFS, pour les performances/calculs en cours.
- Next Cloud Recherche : 300 To : Stockage pour les données de recherche
- Sauvegarde (600 To)
Récentes évolutions
Un fort soutien d’Amiens métropole permet une actualisation de la plateforme dont on vient de prolonger le support des matériels « critiques ». L’ajout de 24 nœuds fins, 4 nœuds épais, 1 nœud Quad GPU et 4 nœuds tri-FPGA (environ 180 TFlops) sera principalement à destination des dépositaires des projets (énergie et médical).