Indice

Gestione biofisici

Reti

I nodi sono sulla rete SRV-BIO e accessibili tramite bastion-bio.

Per migliorare la sicurezza, biosrv0 e bio-nas sono sulla rete SRV-USR (non era possibile propagare SRV al di fuori delle sale server).

Server

biosrv0

Sulla rete SRV-USR (51.66).

Installato con FAI+Saltstack.

bio-nas

Sulla rete SRV-USR (51.65).

Se necessario collegarcisi da locale, staccargli la rete e impostare il 51.61 come IP della propria macchina.

L'accesso di gestione è tramite https://137.204.51.65:5001/ da mgmt-difa e dai PC di Alberto. Il firewall integrato filtra gli accessi ssh ai soli nodi autorizzati.

Nodi

Installati con FAI+SaltStack.

In Salt, difa_unibo_it/init.sls include bio-common.sls per tutti i bioN. bio-common.sls carica bioN.yaml per poter estendere la lista dei packages. In seguito viene caricato bioN.sls (se presente) che potrà fare override di quanto già definito.

Nome Inv. Serial# Posizione Referente Note
bio1 biosrv0 182 DMSDS ? p2 Curti Server tower
bio2 403 ? p2 Curti Server tower
bio3 6033 SV15048 Lama 1 Sala 2x8x2@2GHz, 256GB RAM, 3x1TB SSD
bio4 6034 SV15047 Lama 2 Curti 2x8x2@2GHz, 256GB RAM, 3x1TB SSD, server per raccolta dati
bio5 CIG 410 ? Lama 3 Tarozzi 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD
bio6 CIG 411 ? Lama 4 Sala 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD
bio7 ? S165988X7203077 Lama 5 Sala 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD
bio8 ? S165988X7203079 Lama 6 Curti 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD
bio9 6726 S165988X8512498 Lama 7 Merlotti 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD
bio10 6727 S165988X8512506 Lama 8 Giampieri 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD
bio11 7224 S165988X8A08755 Lama 9 Durazzi 2x8x2@2.1GHz, 256GB RAM, 3x2TB SSD
bio12 7223 S165988X9409070 Lama 10 Giampieri 2x8x2@2.1GHz, 256GB RAM, 3x2TB SSD
bio13 7222 S165988X8A08757 Lama 11 ? 2x8x2@2.1GHz, 256GB RAM, 3x2TB SSD
bio14 7221 S165988X9409055 Lama 12 Sala 2x8x2@2.1GHz, 256GB RAM, 3x2TB SSD
bio17 7195 49SR013 sopra bl1 Durazzi EPYC 7301 2x16x2, 256GB RAM, 2 HDD 600GB R1 HW, 2 GPU nVidia Tesla M10

Storage

Oltre ai nodi fisici (biostorN) vengono usate 3 VM (biostor-infraN) per la gestione.

Nome Inv. Serial# Posizione Note
biostor-infra0 virt1 manager principale
biostor-infra1 virt2
biostor-infra2 virt3
biostor0 6254 RK016093 (E4) B038B 32G RAM
biostor1 7049 ? (MAPO) S14 64G RAM, dischi SATA
biostor2 CIG 472 RK018093 (E4) B038B 128G RAM

Configurazione

Server

infra0 è stato configurato passando a Salt anche pillar=“{ceph: {bootstrap: true}}” mentre venivano installati gli altri nodi. Al termine del bootstrap di cephadm, si è copiata la chiave pubblica SSH da /etc/ceph/ceph.pub nel pillar ceph:keys:adm per il deploy sugli altri nodi.

Poi, collegandosi via web alla dashboard sono stati aggiunti gli altri nodi e i relativi OSD.

Per creare CephFS è necessario entrare su infra0, poi con cephadm shell creare il nuovo FS:

ceph fs volume create bio --placement="label:mds"

che crea il volume 'bio' con metadata server su qualsiasi nodo etichettato 'mds'.

Client

La config minimale si può prendere da infra0:/etc/ceph/ceph.conf o generare con ceph config generate-minimal-conf (da dentro cephadm shell su infra0) e va salvata in /etc/ceph/ceph.conf sui client.

Per generare una chiave per autenticare i client:

ceph fs authorize bio client.NOMECLIENT / rw

che va salvata sui client in /etc/ceph/ceph.keyring .

E' necessario che sia installato il pacchetto ceph-fuse.

In /etc/fstab si può usare una riga come

bionN@.bio=/      /mnt/bio	fuse.ceph	defaults

(assumendo di aver generato la chiave per l'utente bioN e voler montare il FS 'bio' in /mnt/bio).