I nodi sono sulla rete SRV-BIO e accessibili tramite bastion-bio.
Per migliorare la sicurezza, biosrv0 e bio-nas sono sulla rete SRV-USR (non era possibile propagare SRV al di fuori delle sale server).
Sulla rete SRV-USR (51.66).
Installato con FAI+Saltstack.
Sulla rete SRV-USR (51.65).
Se necessario collegarcisi da locale, staccargli la rete e impostare il 51.61 come IP della propria macchina.
L'accesso di gestione è tramite https://137.204.51.65:5001/ da mgmt-difa e dai PC di Alberto. Il firewall integrato filtra gli accessi ssh ai soli nodi autorizzati.
Installati con FAI+SaltStack.
In Salt, difa_unibo_it/init.sls include bio-common.sls per tutti i bioN. bio-common.sls carica bioN.yaml per poter estendere la lista dei packages. In seguito viene caricato bioN.sls (se presente) che potrà fare override di quanto già definito.
Nome | Inv. | Serial# | Posizione | Referente | Note |
---|---|---|---|---|---|
| 182 DMSDS | ? | p2 | Curti | Server tower |
bio2 | 403 | ? | p2 | Curti | Server tower |
bio3 | 6033 | SV15048 | Lama 1 | Sala | 2x8x2@2GHz, 256GB RAM, 3x1TB SSD |
bio4 | 6034 | SV15047 | Lama 2 | Curti | 2x8x2@2GHz, 256GB RAM, 3x1TB SSD, server per raccolta dati |
bio5 | CIG 410 | ? | Lama 3 | Tarozzi | 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD |
bio6 | CIG 411 | ? | Lama 4 | Sala | 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD |
bio7 | ? | S165988X7203077 | Lama 5 | Sala | 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD |
bio8 | ? | S165988X7203079 | Lama 6 | Curti | 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD |
bio9 | 6726 | S165988X8512498 | Lama 7 | Merlotti | 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD |
bio10 | 6727 | S165988X8512506 | Lama 8 | Giampieri | 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD |
bio11 | 7224 | S165988X8A08755 | Lama 9 | Durazzi | 2x8x2@2.1GHz, 256GB RAM, 3x2TB SSD |
bio12 | 7223 | S165988X9409070 | Lama 10 | Giampieri | 2x8x2@2.1GHz, 256GB RAM, 3x2TB SSD |
bio13 | 7222 | S165988X8A08757 | Lama 11 | ? | 2x8x2@2.1GHz, 256GB RAM, 3x2TB SSD |
bio14 | 7221 | S165988X9409055 | Lama 12 | Sala | 2x8x2@2.1GHz, 256GB RAM, 3x2TB SSD |
bio17 | 7195 | 49SR013 | sopra bl1 | Durazzi | EPYC 7301 2x16x2, 256GB RAM, 2 HDD 600GB R1 HW, 2 GPU nVidia Tesla M10 |
Oltre ai nodi fisici (biostorN) vengono usate 3 VM (biostor-infraN) per la gestione.
Nome | Inv. | Serial# | Posizione | Note |
---|---|---|---|---|
biostor-infra0 | virt1 | manager principale | ||
biostor-infra1 | virt2 | |||
biostor-infra2 | virt3 | |||
biostor0 | 6254 | RK016093 (E4) | B038B | 32G RAM |
biostor1 | 7049 | ? (MAPO) | S14 | 64G RAM, dischi SATA |
biostor2 | CIG 472 | RK018093 (E4) | B038B | 128G RAM |
infra0 è stato configurato passando a Salt anche pillar=“{ceph: {bootstrap: true}}”
mentre venivano installati gli altri nodi. Al termine del bootstrap di cephadm, si è copiata la chiave pubblica SSH da /etc/ceph/ceph.pub
nel pillar ceph:keys:adm per il deploy sugli altri nodi.
Poi, collegandosi via web alla dashboard sono stati aggiunti gli altri nodi e i relativi OSD.
Per creare CephFS è necessario entrare su infra0, poi con cephadm shell
creare il nuovo FS:
ceph fs volume create bio --placement="label:mds"
che crea il volume 'bio' con metadata server su qualsiasi nodo etichettato 'mds'.
La config minimale si può prendere da infra0:/etc/ceph/ceph.conf
o generare con ceph config generate-minimal-conf
(da dentro cephadm shell
su infra0) e va salvata in /etc/ceph/ceph.conf
sui client.
Per generare una chiave per autenticare i client:
ceph fs authorize bio client.NOMECLIENT / rw
che va salvata sui client in /etc/ceph/ceph.keyring
.
E' necessario che sia installato il pacchetto ceph-fuse.
In /etc/fstab si può usare una riga come
bionN@.bio=/ /mnt/bio fuse.ceph defaults
(assumendo di aver generato la chiave per l'utente bioN e voler montare il FS 'bio' in /mnt/bio).