Gli impianti tecnologici

 

Realizzati durante il progetto P.O.N. SCoPE, sono di due tipi:

  • dedicati all'alimentazione elettrica (power), posti su una superficie scoperta di circa 100 mq.
  • dedicati al raffreddamento (cooling), consistenti in:
    • chiller posti sulla superficie scoperta di circa 130 mq sita a sinistra del Data Center,
    • altre componenti poste all'interno dei rack del Data Center.

Foto degli impianti


La rete

 

L'architettura di rete telematica interna di SCoPE è caratterizzata dalle seguenti componenti funzionali:

  • connettività a bassa latenza in tecnologia Infiniband (IB) dei nodi blade del sistema di calcolo SCoPE
  • connettività Fibre Channel (FC) per l'interconnessione tra i sistemi di storage e i sistemi di servizio con I/O intensivo
  • connettività in rete locale 10 Gb ethernet (10GbE) per l'interconnessione dei nodi di calcolo del sistema ReCaS
  • connettività in rete locale 25 Gb ethernet (25GbE) per l'interconnessione dei nodi di calcolo e storage del sistema IBiSCo
  • connettività in rete locale 1Gb ethernet (1GbE) per i sistemi di servizio, di gestione e di controllo
  • connettività geografica di campus in tecnologia 10Gb ethernet (10GbE).

L'infrastruttura collega attraverso un anello di connettività interateneo la sala del Datacenter SCoPE con i CED di INFN (ospitato nella sala 1G01 del Dip.to di Fisica) e del Dip.to di Matematica ed Applicazioni. SCoPE e INFN sono, a loro volta, collegati direttamente alla rete della ricerca GARR.

 

Schema della rete 

 

 

I sistemi di memorizzazione dati

 

I dettagli tecnici dei server elencati sono riportati nelle tabelle di seguito.

 

SCoPE

  • Una Storage Area Network EMC2 da 100 TB

ReCaS

  • 4 Storage Area Network Dell Power Vault 3660f per complessivi 432 TB

IbiSCo

  • 14 Storage Nodes per un totale di circa 3PB

 

I sistemi di calcolo

 

I dettagli tecnici dei server elencati sono riportati nelle tabelle di seguito.

 

Sistema SCoPE

 

  • 160 nodi di calcolo DELL blade M600 biprocessore quadcore (organizzati in chassis DELL M1000) con connettività internodo basata su Infiniband per applicazioni parallele basate su MPI;

 

 

Sistema ReCaS

 

  • 10 nodi di calcolo HP DL560G8 quadriprocessore 8-core

  • 2 chassis DELL M1000e con 4 blade M915 quadriprocessore 16-core (particolarmente indicati per applicazioni multicore) e 4 blade M620 ciascuno

  • 15 DELL Power Edge R720XD biprocessore 8-core (particolarmente indicati per applicazioni data intensive)

  • 6 nodi di calcolo SuperMicro As-2042G quadriprocessore 16-core (particolarmente indicati per applicazioni multicore)

  • 3 nodi di calcolo Power Edge R720 biprocessore 8-core con 5 GPGPU NVIDIA Tesla K20 (5GB di RAM e 2496 CUDAcore ciascuna)

 

Sistema IBiSCo

 

  • 32 nodi DELL PowerEdge C4140 connessi da un rete ad alte prestazioni basata su tecnologia Infiniband. Ogni nodo monta 4 GP-GPU NVIDIA Tesla V100 e dispone di 2 processori multicore Intel Xeon Gold e di 0.5 TB di memoria RAM.

  • 12 Nodi DELL PowerEdge C6420 biprocessore 14-core Intel Xeon, 376 GB RAM, connettività inter-nodo basata su tecnologia Ethernet

  • 35 Nodi DELL PowerEdge 7425 biprocessore 16-core AMD EPYC, 251 GB RAM, connettività inter-nodo basata su tecnologia Ethernet

  • 5 Nodi DELL PowerEdge 7425 biprocessore 16-core AMD EPYC, 251 GB RAM, connettività inter-nodo basata su tecnologia Ethernet e scheda NVIDIA Tesla V100-PCIE-32GB

Tabella sistemi IBiSCo