Strumenti Utente

Strumenti Sito


bio:management

Differenze

Queste sono le differenze tra la revisione selezionata e la versione attuale della pagina.

Link a questa pagina di confronto

Prossima revisione
Revisione precedente
bio:management [2025/03/20 10:40] – creata diego.zuccato@unibo.itbio:management [2025/04/11 07:02] (versione attuale) – [Storage] diego.zuccato@unibo.it
Linea 1: Linea 1:
 ====== Gestione biofisici ====== ====== Gestione biofisici ======
  
-TODO+===== Reti ===== 
 + 
 +I nodi sono sulla rete SRV-BIO e accessibili tramite bastion-bio. 
 + 
 +Per migliorare la sicurezza, biosrv0 e bio-nas sono sulla rete SRV-USR (non era possibile propagare SRV al di fuori delle sale server). 
 + 
 +===== Server ===== 
 + 
 +==== biosrv0 ==== 
 + 
 +Sulla rete SRV-USR (51.66). 
 + 
 +Installato con FAI+Saltstack. 
 + 
 +==== bio-nas ==== 
 + 
 +Sulla rete SRV-USR (51.65). 
 + 
 +Se necessario collegarcisi da locale, staccargli la rete e impostare il 51.61 come IP della propria macchina. 
 + 
 +L'accesso di gestione è tramite https://137.204.51.65:5001/ da mgmt-difa e dai PC di Alberto. Il firewall integrato filtra gli accessi ssh ai soli nodi autorizzati. 
 +===== Nodi ===== 
 + 
 +Installati con FAI+SaltStack. 
 + 
 +In Salt, difa_unibo_it/init.sls include bio-common.sls per tutti i bioN. bio-common.sls carica bioN.**yaml** per poter estendere la lista dei packages. In seguito viene caricato bioN.**sls** (se presente) che potrà fare override di quanto già definito. 
 + 
 +^ Nome   ^ Inv.    ^ Serial#         ^ Posizione ^ Referente ^ Note ^ 
 +^ <del>bio1</del> biosrv0   | 182 DMSDS | ? | p2 | Curti     | Server tower | 
 +^ bio2   | 403     | ?               | p2        | Curti     | Server tower | 
 +^ bio3   | 6033    | SV15048         | Lama 1    | Sala      | 2x8x2@2GHz, 256GB RAM, 3x1TB SSD| 
 +^ bio4   | 6034    | SV15047         | Lama 2    | Curti     | 2x8x2@2GHz, 256GB RAM, 3x1TB SSD, server per raccolta dati | 
 +^ bio5   | CIG 410 | ?               | Lama 3    | Tarozzi   | 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD | 
 +^ bio6   | CIG 411 | ?               | Lama 4    | Sala      | 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD | 
 +^ bio7   | ?       | S165988X7203077 | Lama 5    | Sala      | 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD | 
 +^ bio8   | ?       | S165988X7203079 | Lama 6    | Curti     | 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD | 
 +^ bio9   | 6726    | S165988X8512498 | Lama 7    | Merlotti  | 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD | 
 +^ bio10  | 6727    | S165988X8512506 | Lama 8    | Giampieri | 2x8x2@2.1GHz, 128GB RAM, 3x1TB SSD | 
 +^ bio11  | 7224    | S165988X8A08755 | Lama 9    | Durazzi   | 2x8x2@2.1GHz, 256GB RAM, 3x2TB SSD | 
 +^ bio12  | 7223    | S165988X9409070 | Lama 10   | Giampieri | 2x8x2@2.1GHz, 256GB RAM, 3x2TB SSD | 
 +^ bio13  | 7222    | S165988X8A08757 | Lama 11   | ?         | 2x8x2@2.1GHz, 256GB RAM, 3x2TB SSD | 
 +^ bio14  | 7221    | S165988X9409055 | Lama 12   | Sala      | 2x8x2@2.1GHz, 256GB RAM, 3x2TB SSD | 
 +^ bio17  | 7195    | 49SR013         | sopra bl1 | Durazzi   | EPYC 7301 2x16x2, 256GB RAM, 2 HDD 600GB R1 HW, 2 GPU nVidia Tesla M10 | 
 + 
 +===== Storage ===== 
 + 
 +Oltre ai nodi fisici (biostorN) vengono usate 3 VM (biostor-infraN) per la gestione. 
 + 
 +^ Nome     ^ Inv.    ^ Serial#                ^ Posizione ^ Note ^ 
 +| biostor-infra0                            ||| virt1     | manager principale | 
 +| biostor-infra1                            ||| virt2     
 +| biostor-infra2                            ||| virt3     
 +| biostor0 | 6254    | RK016093 (E4)          | B038B     | 32G RAM | 
 +| biostor1 | 7049    | ? (MAPO) | S14       | 64G RAM, dischi SATA | 
 +| biostor2 | CIG 472 | RK018093 (E4)          | B038B     | 128G RAM | 
 + 
 +==== Configurazione ==== 
 + 
 +=== Server === 
 +infra0 è stato configurato passando a Salt anche ''pillar="{ceph: {bootstrap: true}}"'' mentre venivano installati gli altri nodi. Al termine del bootstrap di cephadm, si è copiata la chiave pubblica SSH da ''/etc/ceph/ceph.pub'' nel pillar ceph:keys:adm per il deploy sugli altri nodi. 
 + 
 +Poi, collegandosi via web alla dashboard sono stati aggiunti gli altri nodi e i relativi OSD. 
 + 
 +Per creare CephFS è necessario entrare su infra0, poi con ''cephadm shell'' creare il nuovo FS: 
 +  ceph fs volume create bio --placement="label:mds" 
 +che crea il volume 'bio' con metadata server su qualsiasi nodo etichettato 'mds'
 +=== Client === 
 + 
 +La config minimale si può prendere da ''infra0:/etc/ceph/ceph.conf'' o generare con ''ceph config generate-minimal-conf'' (da dentro ''cephadm shell'' su infra0) e va salvata in ''/etc/ceph/ceph.conf'' sui client. 
 + 
 +Per generare una chiave per autenticare i client: 
 +  ceph fs authorize bio client.NOMECLIENT / rw 
 +che va salvata sui client in ''/etc/ceph/ceph.keyring''
 + 
 +E' necessario che sia installato il pacchetto ceph-fuse. 
 + 
 +In /etc/fstab si può usare una riga come 
 +  bionN@.bio=/      /mnt/bio fuse.ceph defaults 
 +(assumendo di aver generato la chiave per l'utente bioN e voler montare il FS 'bio' in /mnt/bio). 
bio/management.1742467247.txt.gz · Ultima modifica: 2025/03/20 10:40 da diego.zuccato@unibo.it

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki