Documentation du Dr FRAPPE

Ce wiki regroupe les résultats de mes expériences en informatique accumulés au cours de mes recherches sur le net.

Dans la mesure du possible, j'ai cité mes sources ; il en manque certainement… :-)

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
tutoriel:disque:raid:simupanne:start [2020/10/19 09:27] – créée admintutoriel:disque:raid:simupanne:start [2022/08/13 22:15] (Version actuelle) – modification externe 127.0.0.1
Ligne 3: Ligne 3:
 ====== RAID 1 logiciel : Simuler une panne de disque et rétablir le RAID ====== ====== RAID 1 logiciel : Simuler une panne de disque et rétablir le RAID ======
  
-====== Pré-requis ======+===== Pré-requis =====
  
-====== Première étape ======+===== Première étape =====
  
-====== Autres étapes ======+  - Affichez les noms des partitions disponibles :<cli prompt='$ '>...@...:~$ sudo cat /proc/mdstat  
 +Personalities : [raid1]  
 +md0 : active raid1 sda1[0] sdb1[1] 
 +      117153216 blocks super 1.2 [2/2] [UU] 
 +      bitmap: 0/1 pages [0KB], 65536KB chunk
  
-====== Conclusion ======+unused devices: <none></cli>-> Nous avons une grappe RAID /dev/md0 (/dev/sda1 et /dev/sdb1)
  
-====== Problèmes connus ======+===== Autres étapes =====
  
-====== Voir aussi ======+  - Simulez la défaillance du disque sda en mettant en **fail** la partition sda1 :<cli prompt='$ '>...@...:~$ sudo mdadm --manage /dev/md0 --fail /dev/sda1 
 +mdadm: set /dev/sda1 faulty in /dev/md0</cli>Résultat :<cli prompt='$ '>...@...:~$ sudo cat /proc/mdstat 
 +Personalities : [raid1]  
 +md0 : active raid1 sda1[0](F) sdb1[1] 
 +      117153216 blocks super 1.2 [2/1] [_U] 
 +      bitmap: 0/1 pages [0KB], 65536KB chunk 
 + 
 +unused devices: <none></cli>-> la partition sda1 est montrée comme « F » (Faulty). Pour plus de détails :<cli prompt='$ '>...@...:~$ sudo mdadm -D /dev/md0 
 +/dev/md0: 
 +           Version : 1.2 
 +     Creation Time : Thu Oct 15 09:17:35 2020 
 +        Raid Level : raid1 
 +        Array Size : 117153216 (111.73 GiB 119.96 GB) 
 +     Used Dev Size : 117153216 (111.73 GiB 119.96 GB) 
 +      Raid Devices : 2 
 +     Total Devices : 2 
 +       Persistence : Superblock is persistent 
 + 
 +     Intent Bitmap : Internal 
 + 
 +       Update Time : Mon Oct 19 09:38:09 2020 
 +             State : clean, degraded  
 +    Active Devices : 1 
 +   Working Devices : 1 
 +    Failed Devices : 1 
 +     Spare Devices : 0 
 + 
 +Consistency Policy : bitmap 
 + 
 +              Name : framboise4: (local to host framboise4) 
 +              UUID : f88601ca:d0e78820:c242a066:82223b32 
 +            Events : 1261 
 + 
 +    Number   Major   Minor   RaidDevice State 
 +                    0        0      removed 
 +                   17        1      active sync   /dev/sdb1 
 + 
 +                    1        -      faulty   /dev/sda1</cli> 
 +  - Vérifiez vos e-mails, vous avez du recevoir un e-mail de ce type :<code - > 
 +Sujet : DegradedArray event on /dev/md0:framboise4 
 +De : mdadm monitoring <root> 
 +Date : 19/10/2020 à 09:50 
 +Pour : votre_adresse@mail.tld 
 +This is an automatically generated mail message from mdadm 
 +running on framboise4 
 +A DegradedArray event had been detected on md device /dev/md0. 
 +Faithfully yours, etc. 
 +P.S. The /proc/mdstat file currently contains the following: 
 +Personalities : [raid1] 
 +md0 : active raid1 sda1[0](F) sdb1[1] 
 +117153216 blocks super 1.2 [2/1] [_U] 
 +bitmap: 0/1 pages [0KB], 65536KB chunk 
 +unused devices: <none> 
 +</code>Le RAID étant dégradé, nous allons voir comment le rétablir pour ne plus recevoir de mails.\\ Pour cela, il faut retirer complètement /dev/sda1 du RAID et le rajouter. 
 +  - Retirez du RAID le disque marqué comme faulty :<cli prompt='$ '>...@...:~$ sudo mdadm --manage /dev/md0 --remove /dev/sda1 
 +mdadm: hot removed /dev/sda1 from /dev/md0 
 +</cli> 
 +  - Résultat :<cli prompt='$ '>...@...:~$ sudo mdadm -D /dev/md0 
 +/dev/md0: 
 +           Version : 1.2 
 +     Creation Time : Thu Oct 15 09:17:35 2020 
 +        Raid Level : raid1 
 +        Array Size : 117153216 (111.73 GiB 119.96 GB) 
 +     Used Dev Size : 117153216 (111.73 GiB 119.96 GB) 
 +      Raid Devices : 2 
 +     Total Devices : 1 
 +       Persistence : Superblock is persistent 
 + 
 +     Intent Bitmap : Internal 
 + 
 +       Update Time : Mon Oct 19 10:52:10 2020 
 +             State : clean, degraded  
 +    Active Devices : 1 
 +   Working Devices : 1 
 +    Failed Devices : 0 
 +     Spare Devices : 0 
 + 
 +Consistency Policy : bitmap 
 + 
 +              Name : framboise4: (local to host framboise4) 
 +              UUID : f88601ca:d0e78820:c242a066:82223b32 
 +            Events : 1262 
 + 
 +    Number   Major   Minor   RaidDevice State 
 +                    0        0      removed 
 +                   17        1      active sync   /dev/sdb1</cli>Le RAID est toujours dégradé mais actif sur un seul disque. 
 +  - c'est ici qu'on changerait le disque dans la réalité 
 +    * Arrêtez la machine 
 +    * Changez le disque physique 
 +    * Rallumez la machine et partitionnez le nouveau disque à l'identique (attention à ne pas vous tromper de partitions ! on copie le disque sain vers l'autre) :<cli prompt='$ '>...@...:~$ sudo sfdisk -d /dev/sdb | sudo sfdisk /dev/sda</cli> 
 +  - Rajoutez la (nouvelle) partition de sda1 dans le RAID :<cli prompt='$ '>...@...:~$ sudo mdadm --manage /dev/md0 --add /dev/sda1 
 +mdadm: re-added /dev/sda1</cli> 
 +  - Le RAID se resynchronise :<cli prompt='$ '>...@...:~$ cat /proc/mdstat 
 +Personalities : [raid1]  
 +md0 : active raid1 sda1[0] sdb1[1] 
 +      117153216 blocks super 1.2 [2/2] [UU] 
 +      bitmap: 0/1 pages [0KB], 65536KB chunk 
 + 
 +unused devices: <none></cli> 
 + 
 +===== Conclusion ===== 
 + 
 +===== Problèmes connus ===== 
 + 
 +===== Voir aussi =====
  
   * **(fr)** [[http://Article]]   * **(fr)** [[http://Article]]