Documentation du Dr FRAPPE

Ce wiki regroupe les résultats de mes expériences en informatique accumulés au cours de mes recherches sur le net.

Dans la mesure du possible, j'ai cité mes sources ; il en manque certainement… :-)

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
tutoriel:disque:raid:simupanne:start [2020/10/19 09:46] – [Autres étapes] admintutoriel:disque:raid:simupanne:start [2022/08/13 22:15] (Version actuelle) – modification externe 127.0.0.1
Ligne 3: Ligne 3:
 ====== RAID 1 logiciel : Simuler une panne de disque et rétablir le RAID ====== ====== RAID 1 logiciel : Simuler une panne de disque et rétablir le RAID ======
  
-====== Pré-requis ======+===== Pré-requis =====
  
-====== Première étape ======+===== Première étape =====
  
   - Affichez les noms des partitions disponibles :<cli prompt='$ '>...@...:~$ sudo cat /proc/mdstat    - Affichez les noms des partitions disponibles :<cli prompt='$ '>...@...:~$ sudo cat /proc/mdstat 
Ligne 14: Ligne 14:
  
 unused devices: <none></cli>-> Nous avons une grappe RAID /dev/md0 (/dev/sda1 et /dev/sdb1) unused devices: <none></cli>-> Nous avons une grappe RAID /dev/md0 (/dev/sda1 et /dev/sdb1)
-====== Autres étapes ======+ 
 +===== Autres étapes =====
  
   - Simulez la défaillance du disque sda en mettant en **fail** la partition sda1 :<cli prompt='$ '>...@...:~$ sudo mdadm --manage /dev/md0 --fail /dev/sda1   - Simulez la défaillance du disque sda en mettant en **fail** la partition sda1 :<cli prompt='$ '>...@...:~$ sudo mdadm --manage /dev/md0 --fail /dev/sda1
Ligne 54: Ligne 55:
  
                     1        -      faulty   /dev/sda1</cli>                     1        -      faulty   /dev/sda1</cli>
- 
   - Vérifiez vos e-mails, vous avez du recevoir un e-mail de ce type :<code - >   - Vérifiez vos e-mails, vous avez du recevoir un e-mail de ce type :<code - >
-Sujet : +Sujet : DegradedArray event on /dev/md0:framboise4 
-DegradedArray event on /dev/md0:framboise +De : mdadm monitoring <root> 
-De : +Date : 19/10/2020 à 09:50 
-mdadm monitoring <root> +Pour : votre_adresse@mail.tld
-Date : +
-23/09/2020 à 11:48 +
-Pour : +
-nicolas@nfrappe.fr +
 This is an automatically generated mail message from mdadm This is an automatically generated mail message from mdadm
-running on framboise +running on framboise4
 A DegradedArray event had been detected on md device /dev/md0. A DegradedArray event had been detected on md device /dev/md0.
- 
 Faithfully yours, etc. Faithfully yours, etc.
- 
 P.S. The /proc/mdstat file currently contains the following: P.S. The /proc/mdstat file currently contains the following:
 +Personalities : [raid1]
 +md0 : active raid1 sda1[0](F) sdb1[1]
 +117153216 blocks super 1.2 [2/1] [_U]
 +bitmap: 0/1 pages [0KB], 65536KB chunk
 +unused devices: <none>
 +</code>Le RAID étant dégradé, nous allons voir comment le rétablir pour ne plus recevoir de mails.\\ Pour cela, il faut retirer complètement /dev/sda1 du RAID et le rajouter.
 +  - Retirez du RAID le disque marqué comme faulty :<cli prompt='$ '>...@...:~$ sudo mdadm --manage /dev/md0 --remove /dev/sda1
 +mdadm: hot removed /dev/sda1 from /dev/md0
 +</cli>
 +  - Résultat :<cli prompt='$ '>...@...:~$ sudo mdadm -D /dev/md0
 +/dev/md0:
 +           Version : 1.2
 +     Creation Time : Thu Oct 15 09:17:35 2020
 +        Raid Level : raid1
 +        Array Size : 117153216 (111.73 GiB 119.96 GB)
 +     Used Dev Size : 117153216 (111.73 GiB 119.96 GB)
 +      Raid Devices : 2
 +     Total Devices : 1
 +       Persistence : Superblock is persistent
  
 +     Intent Bitmap : Internal
 +
 +       Update Time : Mon Oct 19 10:52:10 2020
 +             State : clean, degraded 
 +    Active Devices : 1
 +   Working Devices : 1
 +    Failed Devices : 0
 +     Spare Devices : 0
 +
 +Consistency Policy : bitmap
 +
 +              Name : framboise4: (local to host framboise4)
 +              UUID : f88601ca:d0e78820:c242a066:82223b32
 +            Events : 1262
 +
 +    Number   Major   Minor   RaidDevice State
 +                    0        0      removed
 +                   17        1      active sync   /dev/sdb1</cli>Le RAID est toujours dégradé mais actif sur un seul disque.
 +  - c'est ici qu'on changerait le disque dans la réalité
 +    * Arrêtez la machine
 +    * Changez le disque physique
 +    * Rallumez la machine et partitionnez le nouveau disque à l'identique (attention à ne pas vous tromper de partitions ! on copie le disque sain vers l'autre) :<cli prompt='$ '>...@...:~$ sudo sfdisk -d /dev/sdb | sudo sfdisk /dev/sda</cli>
 +  - Rajoutez la (nouvelle) partition de sda1 dans le RAID :<cli prompt='$ '>...@...:~$ sudo mdadm --manage /dev/md0 --add /dev/sda1
 +mdadm: re-added /dev/sda1</cli>
 +  - Le RAID se resynchronise :<cli prompt='$ '>...@...:~$ cat /proc/mdstat
 Personalities : [raid1]  Personalities : [raid1] 
-md0 : active raid1 sdb1[2](F) sdc1[1] +md0 : active raid1 sda1[0sdb1[1] 
-      61405184 blocks super 1.2 [2/1] [_U+      117153216 blocks super 1.2 [2/2] [UU
-       +      bitmap: 0/1 pages [0KB], 65536KB chunk 
-unused devices: <none></code+ 
-====== Conclusion ======+unused devices: <none></cli
 + 
 +===== Conclusion =====
  
-====== Problèmes connus ======+===== Problèmes connus =====
  
-====== Voir aussi ======+===== Voir aussi =====
  
   * **(fr)** [[http://Article]]   * **(fr)** [[http://Article]]