XLR IA Solution Serveur

Carri Systems a sélectionné plusieurs serveurs tous fournis avec les logiciels de Deep Learning installés et prêts à l’emploi.

Serveur XLR Dev

Demande de devis

GPU : jusqu’à 8x NIDIA GTX1080TI, Titan X, P6000, M40 ou P100, Intel Xeon Phi ou AMD Radeon

CPU : 2x Intel Xeon E5-2698 v4 2.2 GHz

Mémoire :

stockage :

Réseau :

OS : Ubuntu

Spécialement conçu pour débuter dans le Deep Learning ainsi que pour des salles de cours.

Serveur XLR Minsky

Demande de devis

GPU : 4x Tesla P100

CPU : 2x Power8

CPU/GPU : NVLink (80Go/s)

GPU/GPU : NVLink (80Go/s)

Mémoire :

Stockage :

Interconnexion : OpenCapi

OS:Ubuntu

NVLink entre GPU/CPU et GPU/GPU

Livré avec la stack PowerAI

Solution idéale pour les gros volumes de données et les applications Deep Learning intensives.

Serveur XLR DGX-1

Demande de devis

GPU : 8x Tesla P100

CPU : 2x Intel Xeon E5-2698 v4 2.2 GHz

GPU/GPU : NVLink (20Go/s)

Mémoire : 512 GB 2,133 MHz DDR4 LRDIMM

Stockage : 4X 1.92 TB SSD RAID 0

Réseau : Dual 10 GbE, 4 IB EDR

TFLOPS (GPU FP16) : 170

NVIDIA CUDA® Cores : 28,672

NVIDIA Tensor Cores : N/A

OS : Ubuntu

NVLink entre GPU

Livré avec NVIDIA Deep Learning SDK

Serveur XLR Minsky P9

Demande de devis

GPU : 4xTesla V100

CPU : 2x Power9

CPU/GPU : NVLink-2 (100 Go/s)

GPU/GPU : NVLink-2 (100 Go/s)

Mémoire : jusqu’à 1To

Stockage :

Interconnexion : OpenCapi

OS:Ubuntu

NVLink-2 entre GPU /CPU et GPU/GPU

Cohérence de cache (mémoire CPU et GPU)

Livré avec la stack PowerAI

Serveur XLR DGX-1 V100

Demande de devis

GPU : 8X Tesla V100

CPU : 2xIntel Xeon E5-2698 v4 2.2 GHz

GPU/GPU : NVLink-2

Mémoire : 512 GB 2,133 MHz DDR4 LRDIMM

Stockage : 4X 1.92 TB SSD RAID 0

Réseau : Dual 10 GbE, 4 IB EDR

TFLOPS (GPU FP16) :  960

NVIDIA CUDA® Cores : 40,960

NVIDIA Tensor Cores : 5,120

NVLink-2 entre GPU

Livré avec NVIDIA Deep Learning SDK

La solution ultime pour le Deep Learning