Documentation du Dr FRAPPE

Ce wiki regroupe les résultats de mes expériences en informatique accumulés au cours de mes recherches sur le net.

Dans la mesure du possible, j'ai cité mes sources ; il en manque certainement… :-)

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
tutoriel:disque:raid:simupanne:start [2020/10/19 10:53] – [Autres étapes] admintutoriel:disque:raid:simupanne:start [2022/08/13 22:15] (Version actuelle) – modification externe 127.0.0.1
Ligne 3: Ligne 3:
 ====== RAID 1 logiciel : Simuler une panne de disque et rétablir le RAID ====== ====== RAID 1 logiciel : Simuler une panne de disque et rétablir le RAID ======
  
-====== Pré-requis ======+===== Pré-requis =====
  
-====== Première étape ======+===== Première étape =====
  
   - Affichez les noms des partitions disponibles :<cli prompt='$ '>...@...:~$ sudo cat /proc/mdstat    - Affichez les noms des partitions disponibles :<cli prompt='$ '>...@...:~$ sudo cat /proc/mdstat 
Ligne 14: Ligne 14:
  
 unused devices: <none></cli>-> Nous avons une grappe RAID /dev/md0 (/dev/sda1 et /dev/sdb1) unused devices: <none></cli>-> Nous avons une grappe RAID /dev/md0 (/dev/sda1 et /dev/sdb1)
-====== Autres étapes ======+ 
 +===== Autres étapes =====
  
   - Simulez la défaillance du disque sda en mettant en **fail** la partition sda1 :<cli prompt='$ '>...@...:~$ sudo mdadm --manage /dev/md0 --fail /dev/sda1   - Simulez la défaillance du disque sda en mettant en **fail** la partition sda1 :<cli prompt='$ '>...@...:~$ sudo mdadm --manage /dev/md0 --fail /dev/sda1
Ligne 68: Ligne 69:
 117153216 blocks super 1.2 [2/1] [_U] 117153216 blocks super 1.2 [2/1] [_U]
 bitmap: 0/1 pages [0KB], 65536KB chunk bitmap: 0/1 pages [0KB], 65536KB chunk
-unused devices: <none>Le RAID étant dégradé, nous allons voir comment le rétablir pour ne plus recevoir de mails +unused devices: <none
-</code>+</code>Le RAID étant dégradé, nous allons voir comment le rétablir pour ne plus recevoir de mails.\\ Pour cela, il faut retirer complètement /dev/sda1 du RAID et le rajouter.
   - Retirez du RAID le disque marqué comme faulty :<cli prompt='$ '>...@...:~$ sudo mdadm --manage /dev/md0 --remove /dev/sda1   - Retirez du RAID le disque marqué comme faulty :<cli prompt='$ '>...@...:~$ sudo mdadm --manage /dev/md0 --remove /dev/sda1
 mdadm: hot removed /dev/sda1 from /dev/md0 mdadm: hot removed /dev/sda1 from /dev/md0
 </cli> </cli>
-====== Conclusion ======+  - Résultat :<cli prompt='$ '>...@...:~$ sudo mdadm -D /dev/md0 
 +/dev/md0: 
 +           Version : 1.2 
 +     Creation Time : Thu Oct 15 09:17:35 2020 
 +        Raid Level : raid1 
 +        Array Size : 117153216 (111.73 GiB 119.96 GB) 
 +     Used Dev Size : 117153216 (111.73 GiB 119.96 GB) 
 +      Raid Devices : 2 
 +     Total Devices : 1 
 +       Persistence : Superblock is persistent 
 + 
 +     Intent Bitmap : Internal 
 + 
 +       Update Time : Mon Oct 19 10:52:10 2020 
 +             State : clean, degraded  
 +    Active Devices : 1 
 +   Working Devices : 1 
 +    Failed Devices : 0 
 +     Spare Devices : 0 
 + 
 +Consistency Policy : bitmap 
 + 
 +              Name : framboise4: (local to host framboise4) 
 +              UUID : f88601ca:d0e78820:c242a066:82223b32 
 +            Events : 1262 
 + 
 +    Number   Major   Minor   RaidDevice State 
 +                    0        0      removed 
 +                   17        1      active sync   /dev/sdb1</cli>Le RAID est toujours dégradé mais actif sur un seul disque. 
 +  - c'est ici qu'on changerait le disque dans la réalité 
 +    * Arrêtez la machine 
 +    * Changez le disque physique 
 +    * Rallumez la machine et partitionnez le nouveau disque à l'identique (attention à ne pas vous tromper de partitions ! on copie le disque sain vers l'autre) :<cli prompt='$ '>...@...:~$ sudo sfdisk -d /dev/sdb | sudo sfdisk /dev/sda</cli> 
 +  - Rajoutez la (nouvelle) partition de sda1 dans le RAID :<cli prompt='$ '>...@...:~$ sudo mdadm --manage /dev/md0 --add /dev/sda1 
 +mdadm: re-added /dev/sda1</cli> 
 +  - Le RAID se resynchronise :<cli prompt='$ '>...@...:~$ cat /proc/mdstat 
 +Personalities : [raid1]  
 +md0 : active raid1 sda1[0] sdb1[1] 
 +      117153216 blocks super 1.2 [2/2] [UU] 
 +      bitmap: 0/1 pages [0KB], 65536KB chunk 
 + 
 +unused devices: <none></cli> 
 + 
 +===== Conclusion =====
  
-====== Problèmes connus ======+===== Problèmes connus =====
  
-====== Voir aussi ======+===== Voir aussi =====
  
   * **(fr)** [[http://Article]]   * **(fr)** [[http://Article]]