====== Gestione biofisici ====== ===== Reti ===== I nodi sono sulla rete SRV-BIO e accessibili tramite bastion-bio. Per migliorare la sicurezza, biosrv0 e bio-nas sono sulla rete SRV-USR (non era possibile propagare SRV al di fuori delle sale server). ===== Server ===== ==== biosrv0 ==== Sulla rete SRV-USR (51.66). Installato con FAI+Saltstack. ==== bio-nas ==== Sulla rete SRV-USR (51.65). Se necessario collegarcisi da locale, staccargli la rete e impostare il 51.61 come IP della propria macchina. L'accesso di gestione è tramite https://137.204.51.65:5001/ da mgmt-difa e dai PC di Alberto. Il firewall integrato filtra gli accessi ssh ai soli nodi autorizzati. ===== Nodi ===== Installati con FAI+SaltStack. In Salt, difa_unibo_it/init.sls include bio-common.sls per tutti i bioN. bio-common.sls carica bioN.**yaml** per poter estendere la lista dei packages. In seguito viene caricato bioN.**sls** (se presente) che potrà fare override di quanto già definito. ^ Nome ^ Inv. ^ Serial# ^ Posizione ^ Referente ^ Note ^ ^ bio1 biosrv0 | 182 DMSDS | ? | p2 | Curti | Server tower | ^ bio2 | 403 | ? | p2 | Curti | Server tower | ^ bio3 | 6033 | SV15048 | Lama 1 | Sala | 2x8x2@2GHz, 256GB RAM, 3x1TB SSD| ^ bio4 | 6034 | SV15047 | Lama 2 | Curti | 2x8x2@2GHz, 256GB RAM, 3x1TB SSD, server per raccolta dati | ^ bio5 | CIG 410 | ? | Lama 3 | Tarozzi | 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD | ^ bio6 | CIG 411 | ? | Lama 4 | Sala | 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD | ^ bio7 | ? | S165988X7203077 | Lama 5 | Sala | 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD | ^ bio8 | ? | S165988X7203079 | Lama 6 | Curti | 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD | ^ bio9 | 6726 | S165988X8512498 | Lama 7 | Merlotti | 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD | ^ bio10 | 6727 | S165988X8512506 | Lama 8 | Giampieri | 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD | ^ bio11 | 7224 | S165988X8A08755 | Lama 9 | Durazzi | 2x8x2@2.1GHz, 256GB RAM, 3x2TB SSD | ^ bio12 | 7223 | S165988X9409070 | Lama 10 | Giampieri | 2x8x2@2.1GHz, 256GB RAM, 3x2TB SSD | ^ bio13 | 7222 | S165988X8A08757 | Lama 11 | ? | 2x8x2@2.1GHz, 256GB RAM, 3x2TB SSD | ^ bio14 | 7221 | S165988X9409055 | Lama 12 | Sala | 2x8x2@2.1GHz, 256GB RAM, 3x2TB SSD | ^ bio17 | 7195 | 49SR013 | sopra bl1 | Durazzi | EPYC 7301 2x16x2, 256GB RAM, 2 HDD 600GB R1 HW, 2 GPU nVidia Tesla M10 | ===== Storage ===== Oltre ai nodi fisici (biostorN) vengono usate 3 VM (biostor-infraN) per la gestione. ^ Nome ^ Inv. ^ Serial# ^ Posizione ^ Note ^ | biostor-infra0 ||| virt1 | manager principale | | biostor-infra1 ||| virt2 | | | biostor-infra2 ||| virt3 | | | biostor0 | 6254 | RK016093 (E4) | B038B | 32G RAM | | biostor1 | 7049 | ? (MAPO) | S14 | 64G RAM, dischi SATA | | biostor2 | CIG 472 | RK018093 (E4) | B038B | 128G RAM | ==== Configurazione ==== === Server === infra0 è stato configurato passando a Salt anche ''pillar="{ceph: {bootstrap: true}}"'' mentre venivano installati gli altri nodi. Al termine del bootstrap di cephadm, si è copiata la chiave pubblica SSH da ''/etc/ceph/ceph.pub'' nel pillar ceph:keys:adm per il deploy sugli altri nodi. Poi, collegandosi via web alla dashboard sono stati aggiunti gli altri nodi e i relativi OSD. Per creare CephFS è necessario entrare su infra0, poi con ''cephadm shell'' creare il nuovo FS: ceph fs volume create bio --placement="label:mds" che crea il volume 'bio' con metadata server su qualsiasi nodo etichettato 'mds'. === Client === La config minimale si può prendere da ''infra0:/etc/ceph/ceph.conf'' o generare con ''ceph config generate-minimal-conf'' (da dentro ''cephadm shell'' su infra0) e va salvata in ''/etc/ceph/ceph.conf'' sui client. Per generare una chiave per autenticare i client: ceph fs authorize bio client.NOMECLIENT / rw che va salvata sui client in ''/etc/ceph/ceph.keyring'' . E' necessario che sia installato il pacchetto ceph-fuse. In /etc/fstab si può usare una riga come bionN@.bio=/ /mnt/bio fuse.ceph defaults (assumendo di aver generato la chiave per l'utente bioN e voler montare il FS 'bio' in /mnt/bio).