Coordination Ceph/P2IO
→
Europe/Paris
ID de réunion Zoom
99516247026
Hôte
Michel Jouvin
URL Zoom
Ceph/P2IO - 2/12/2021
Réseau Paris Saclay
- 100G opérationnel sur le réseau UPSaclay
- Tests iperf par Guillaume entre les 3 sites
- 4 serveurs 10 Gb/s vers 4 serveurs 10 Gb/s
- Depuis IJCLab, LLR et Irfu ne dépassent par 10 Gb/s si seul, 20 Gb/s si Irfu+LLR
- LLR : uplink actuellement à 10 Gb/s, upgrade demain pour 100 Gb/s
- Irfu : vérifier uplink. Denis Veynet suggère que le pb pourrait être au CCIN2P3
- Pour l'instant 10 Gb/s par serveur : monotirer et voir si nécessaire de 2x10 Gb/s
- 25 Gb/s à l'avenir
Utilisation des SSDs
- Actuellement configuré dans un pool spécifique non utilisé
- Les utiliser pour CephFS ?
Status
- Test install CentOS8 : prévu la semaine prochaine
- Si ok, passage Octopus sous CS8 puis Pacifica
- Pacifica : Hervé mentionne qu'ils ont eu des problèmes inattendus, va les documenter
- Configuration à mettre à jour avant l'upgrade : HErvé va les documenter
- Pas de soucis de redémarrage après les coupures électriques
Utilisation
- IAS : environ 30% de la capacité
- LSST : ~100TB net
- Migration stockage grille (DPM -> EOS) : serait bien d'avoir de l'ordre de 500 TB utile pendant ~1 an
- Besoin CephFS
- Prendre aussi en compte la fin de garantie des serveurs (juillet 2022)
- Hervé : aussi prendre en compte qu'un OSD au-delà de 90% pose de gros problèmes
- nearfull alert = 85%
CephFS
- Evaluer la possibilité d'avoir plusieurs namespaces
- Dispo au moins à partir de Octopus, sans doute Nautilus
- Impact en termes de config réseau
Prochaine réunion : mercredi 12/1 9h30
- Réfléchir au renouvellement/extension de la configuration
- Acheter un stock de disk spare en prévision ? Pas forcément très attractif, pb au-delà des disques
- Extension de garantie à 7 ans ?
- Déploiement de CephFS
Il y a un compte-rendu associé à cet événement.
Les afficher.
L'ordre du jour de cette réunion est vide