NAS perte du RAID5 sur Buffalo Terastation

NAS perte du RAID5 sur Buffalo Terastation - Réseaux - Réseaux grand public / SoHo

Marsh Posté le 11-05-2018 à 12:23:41    

J'ai un gros problème sur mon NAS Buffalo Etrastation TS-XE4.0TL/R5-EU. Je ne trouve pas de topic Buffalo ni NAS général.
Si jamais vous pouviez m'aider mais j'ai l'impression que j'ai tout perdu. :(

 

J'ai vu ce matin que "l'affichage était rouge".
Il indiquait qu'il y avait un souci avec le HD2.
Je suis allé sur l'interface web, j'ai constaté que le HD2 était en erreur.
Mais là il a carrément perdu tout le RAID. :(

 

Depuis mon PC, j'ai accès aux répertoires partagés (où sont mes données) mais je ne peux pas les parcourir.

 

J'ai récupéré ce log :

 
Code :
  1. May 11 04:10:02 mon_nas linkstation: S.M.A.R.T. fail detected at disk2(sdb)
  2. May 11 04:10:03 mon_nas errormon[1524]: Error situation detected! HD2 Error    E16HD2 Not Found
  3. May 11 04:10:10 mon_nas linkstation: Attaching faulty flag (/dev/md2 -> /dev/sdb6)
  4. May 11 04:10:10 mon_nas linkstation: Attaching faulty flag (/dev/md1 -> /dev/sdb2)
  5. May 11 04:10:11 mon_nas linkstation: Attaching faulty flag (/dev/md10 -> /dev/sdb5)
  6. May 11 04:10:11 mon_nas linkstation: Attaching faulty flag (/dev/md0 -> /dev/sdb1)
  7. May 11 04:10:12 mon_nas kernelmon: cmd=raiddegraded 2 8 22
  8. May 11 04:10:12 mon_nas errormon[1524]: Information situation detected! OperationModeI12DEGRADE MODE
  9. May 11 04:10:17 mon_nas errormon[1524]: Error situation detected! RAID ERROR   E13Array1 Error
  10. May 11 04:10:25 mon_nas errormon[1524]: Error situation detected! HD2 Error    E23HD2 Is Faulty
  11. May 11 04:10:36 mon_nas hdd_remove: Disk(disk2) removed : Status (array1)
  12. May 11 04:10:50 mon_nas twonky: Media Server script is begun. type=stop
  13. May 11 04:10:51 mon_nas twonky: stop Media Server
  14. May 11 04:10:52 mon_nas kernelmon: cmd=raiddegraded 1 8 18
  15. May 11 04:10:53 mon_nas kernelmon: cmd=raiddegraded 10 8 21
  16. May 11 04:10:53 mon_nas kernelmon: cmd=raiddegraded 0 8 17
  17. May 11 04:10:56 mon_nas linkstation: DWARF : Killing all dwarves
  18. May 11 04:11:25 mon_nas twonky: Media Server script is begun. type=start
  19. May 11 04:11:25 mon_nas twonky: Media Server setting is off
  20. May 11 10:28:52 mon_nas hdd_wakeup: Disk(disk2) rediscoverd : Status (degrade)
  21. May 11 10:28:53 mon_nas kernelmon: cmd=ioerr sda WRITE 1937508096 1
  22. May 11 10:28:54 mon_nas kernelmon: cmd=raiddegraded 2 8 6
  23. May 11 10:29:09 mon_nas errormon[1524]: Error situation detected! HD1 Error    E23HD1 Is Faulty
  24. May 11 10:29:20 mon_nas hdd_remove: Disk(disk1) removed : Status (array1)
  25. May 11 10:29:36 mon_nas twonky: Media Server script is begun. type=stop
  26. May 11 10:29:37 mon_nas twonky: stop Media Server
  27. May 11 10:29:38 mon_nas kernelmon: cmd=ioerr sdd WRITE 1937508096 1
  28. May 11 10:29:39 mon_nas kernelmon: cmd=raiddegraded 2 8 54
  29. May 11 10:29:41 mon_nas linkstation: DWARF : Killing all dwarves
  30. May 11 10:29:52 mon_nas errormon[1524]: Error situation detected! HD3 Error    E23HD3 Is Faulty
  31. May 11 10:29:56 mon_nas errormon[1524]: Error situation detected! HD4 Error    E23HD4 Is Faulty
  32. May 11 10:30:07 mon_nas hdd_remove: Disk(disk4) removed : Status (array1)
  33. May 11 10:30:15 mon_nas twonky: Media Server script is begun. type=stop
  34. May 11 10:30:18 mon_nas twonky: stop Media Server
  35. May 11 10:30:20 mon_nas kernelmon: cmd=ioerr sdc WRITE 1937508096 1
  36. May 11 10:30:21 mon_nas kernelmon: cmd=raiddegraded 2 8 38
  37. May 11 10:30:22 mon_nas linkstation: DWARF : Killing all dwarves
  38. May 11 10:30:25 mon_nas linkstation: *** fsaccesstest test /mnt/array1 fail. ***
  39. May 11 10:30:30 mon_nas errormon[1524]: Error situation detected! RAID ARRAY1  E14Can't Mount
  40. May 11 10:30:48 mon_nas hdd_remove: Disk(disk3) removed : Status (array1)
  41. May 11 10:43:27 mon_nas linkstation: Started logchkd
  42. May 11 10:43:27 mon_nas linkstation: Started inetd
  43. May 11 10:43:27 mon_nas errormon[1506]: errormon-ver.2.00 started
  44. May 11 10:43:27 mon_nas linkstation: Started errormon
  45. May 11 10:43:27 mon_nas linkstation: Started kernelmon
  46. May 11 10:43:28 mon_nas kernelmon: cmd=SATA 0 plugged
  47. May 11 10:43:29 mon_nas kernelmon: cmd=SATA 1 plugged
  48. May 11 10:43:30 mon_nas kernelmon: cmd=SATA 2 plugged
  49. May 11 10:43:31 mon_nas kernelmon: cmd=SATA 3 plugged
  50. May 11 10:43:32 mon_nas kernelmon: cmd=lanact 0 full eth0
  51. May 11 10:43:32 mon_nas kernelmon: cmd=lanact 1000 full eth0
  52. May 11 10:43:33 mon_nas kernelmon: cmd=lanact 0 full eth0
  53. May 11 10:43:33 mon_nas linkstation: S.M.A.R.T. fail detected at disk2(sdb)
  54. May 11 10:43:34 mon_nas kernelmon: cmd=lanact 1000 full eth0
  55. May 11 10:43:34 mon_nas errormon[1506]: Error situation detected! HD2 Error    E16HD2 Not Found
  56. May 11 10:43:41 mon_nas linkstation: Requested to attach faulty flag to disk2, but I can't
  57. May 11 10:43:41 mon_nas linkstation: All of the array which includes specified disk doesn't have enough redundancy!!!
  58. May 11 10:43:47 mon_nas MountXFS: mount /dev/md2 fail.
  59. May 11 10:43:48 mon_nas last message repeated 3 times
  60. May 11 10:44:14 mon_nas linkstation: cron.sh : logrotate.status is fine.
  61. May 11 10:44:18 mon_nas twonky: Media Server script is begun. type=start
  62. May 11 10:44:19 mon_nas twonky: Media Server setting is off
  63. May 11 10:44:21 mon_nas kernelmon: cmd=micon_interrupts
  64. May 11 10:44:22 mon_nas root: linkstation
  65. May 11 10:44:23 mon_nas kernelmon: cmd=micon_interrupts
  66. May 11 10:44:26 mon_nas hdd_raid_syncspeed.sh: /dev/md0 sync speed max is setted to 50000
  67. May 11 10:44:26 mon_nas hdd_raid_syncspeed.sh: /dev/md1 sync speed max is setted to 50000
  68. May 11 10:44:26 mon_nas hdd_raid_syncspeed.sh: /dev/md10 sync speed max is setted to 50000
  69. May 11 10:44:27 mon_nas linkstation: #[miconapl.mcon_get_version] mcon_version=TS-XEL    Ver1.1
  70. May 11 10:44:36 mon_nas libsys: USB chip is found! and looks like work well.
  71. May 11 10:44:37 mon_nas errormon[1506]: Information situation detected! RAID         I14ARRAY1 Checking
  72. May 11 10:44:42 mon_nas twonky: Media Server script is begun. type=stop
  73. May 11 10:44:42 mon_nas twonky: stop Media Server
  74. May 11 10:44:47 mon_nas linkstation: DWARF : Killing all dwarves
  75. May 11 10:44:52 mon_nas FsckXFS: try to repair XFS....
  76. May 11 10:44:52 mon_nas FsckXFS: . giveup.
  77. May 11 10:44:52 mon_nas MountXFS: mount /dev/md2 fail.
  78. May 11 10:44:53 mon_nas errormon[1506]: Information situation cleared! RAID         I14ARRAY1 Checking
  79. May 11 10:45:24 mon_nas twonky: Media Server script is begun. type=start
  80. May 11 10:45:24 mon_nas twonky: Media Server setting is off
  81. May 11 10:45:32 mon_nas hdd_remove: Disk(disk1) removed : Status (degrade)
  82. May 11 10:45:44 mon_nas twonky: Media Server script is begun. type=stop
  83. May 11 10:45:45 mon_nas twonky: stop Media Server
  84. May 11 10:45:47 mon_nas errormon[1506]: Error situation detected! HD1 Error    E23HD1 Is Faulty
  85. May 11 10:45:50 mon_nas linkstation: DWARF : Killing all dwarves
  86. May 11 10:45:51 mon_nas errormon[1506]: Error situation detected! RAID ARRAY1  E14Can't Mount
  87. May 11 10:46:01 mon_nas hdd_remove: Disk(disk2) removed : Status (degrade)
  88. May 11 10:46:16 mon_nas errormon[1506]: Error situation detected! HD2 Error    E23HD2 Is Faulty
  89. May 11 10:46:17 mon_nas twonky: Media Server script is begun. type=stop
  90. May 11 10:46:18 mon_nas twonky: stop Media Server
  91. May 11 10:46:24 mon_nas linkstation: DWARF : Killing all dwarves
  92. May 11 10:46:25 mon_nas errormon[1506]: Error situation detected! HD3 Error    E23HD3 Is Faulty
  93. May 11 10:46:30 mon_nas errormon[1506]: Error situation detected! HD4 Error    E23HD4 Is Faulty
  94. May 11 10:46:32 mon_nas kernelmon: cmd=raiddegraded 0 8 33
  95. May 11 10:46:33 mon_nas kernelmon: cmd=raiddegraded 1 8 34
  96. May 11 10:46:35 mon_nas hdd_remove: Disk(disk3) removed : Status (degrade)
  97. May 11 10:59:06 mon_nas linkstation: Started logchkd
  98. May 11 10:59:06 mon_nas linkstation: Started inetd
  99. May 11 10:59:06 mon_nas errormon[1542]: errormon-ver.2.00 started
  100. May 11 10:59:06 mon_nas linkstation: Started errormon
  101. May 11 10:59:07 mon_nas linkstation: Started kernelmon
  102. May 11 10:59:08 mon_nas kernelmon: cmd=SATA 0 plugged
  103. May 11 10:59:08 mon_nas kernelmon: cmd=SATA 1 plugged
  104. May 11 10:59:09 mon_nas kernelmon: cmd=SATA 2 plugged
  105. May 11 10:59:10 mon_nas kernelmon: cmd=SATA 3 plugged
  106. May 11 10:59:11 mon_nas kernelmon: cmd=lanact 0 full eth0
  107. May 11 10:59:11 mon_nas kernelmon: cmd=lanact 1000 full eth0
  108. May 11 10:59:12 mon_nas kernelmon: cmd=lanact 0 full eth0
  109. May 11 10:59:13 mon_nas kernelmon: cmd=lanact 1000 full eth0
  110. May 11 10:59:13 mon_nas kernelmon: cmd=raidrecovery 0 1 1 1 8 1
  111. May 11 10:59:14 mon_nas linkstation: S.M.A.R.T. fail detected at disk2(sdb)
  112. May 11 10:59:15 mon_nas errormon[1542]: Error situation detected! HD2 Error    E16HD2 Not Found
  113. May 11 10:59:22 mon_nas linkstation: Requested to attach faulty flag to disk2, but I can't
  114. May 11 10:59:23 mon_nas linkstation: All of the array which includes specified disk doesn't have enough redundancy!!!
  115. May 11 10:59:23 mon_nas errormon[1542]: Information situation detected! System       I01Self Checking
  116. May 11 10:59:30 mon_nas MountXFS: mount /dev/disk1_6 fail.
  117. May 11 10:59:31 mon_nas last message repeated 3 times
  118. May 11 10:59:33 mon_nas MountXFS: mount /dev/disk2_6 fail.
  119. May 11 10:59:34 mon_nas last message repeated 3 times
  120. May 11 10:59:35 mon_nas MountXFS: mount /dev/disk3_6 fail.
  121. May 11 10:59:37 mon_nas last message repeated 3 times
  122. May 11 10:59:38 mon_nas MountXFS: mount /dev/disk4_6 fail.
  123. May 11 10:59:39 mon_nas last message repeated 3 times
  124. May 11 11:00:06 mon_nas linkstation: cron.sh : logrotate.status is fine.
  125. May 11 11:00:12 mon_nas twonky: Media Server script is begun. type=start
  126. May 11 11:00:12 mon_nas twonky: Media Server setting is off
  127. May 11 11:00:16 mon_nas root: linkstation
  128. May 11 11:00:20 mon_nas hdd_raid_syncspeed.sh: /dev/md0 sync speed max is setted to 50000
  129. May 11 11:00:20 mon_nas hdd_raid_syncspeed.sh: /dev/md1 sync speed max is setted to 50000
  130. May 11 11:00:20 mon_nas hdd_raid_syncspeed.sh: /dev/md10 sync speed max is setted to 50000
  131. May 11 11:00:21 mon_nas linkstation: #[miconapl.mcon_get_version] mcon_version=TS-XEL    Ver1.1
  132. May 11 11:00:32 mon_nas libsys: USB chip is found! and looks like work well.
  133. May 11 11:00:34 mon_nas errormon[1542]: Information situation detected! DISK         I21DISK1 Checking
  134. May 11 11:00:36 mon_nas kernelmon: cmd=raidrecovery 0 0 0 1 8 1
  135. May 11 11:00:39 mon_nas twonky: Media Server script is begun. type=stop
  136. May 11 11:00:40 mon_nas twonky: stop Media Server
  137. May 11 11:00:49 mon_nas linkstation: DWARF : Killing all dwarves
  138. May 11 11:00:51 mon_nas kernelmon: cmd=raidrecovery 1 1 1 1 8 50
  139. May 11 11:00:55 mon_nas FsckXFS: try to repair XFS....
  140. May 11 11:00:55 mon_nas FsckXFS: . giveup.
  141. May 11 11:00:55 mon_nas MountXFS: mount /dev/disk1_6 fail.
  142. May 11 11:00:56 mon_nas errormon[1542]: Information situation cleared! DISK         I21DISK1 Checking
  143. May 11 11:01:25 mon_nas twonky: Media Server script is begun. type=start
  144. May 11 11:01:25 mon_nas twonky: Media Server setting is off
  145. May 11 11:01:26 mon_nas errormon[1542]: Information situation detected! DISK         I21DISK2 Checking
  146. May 11 11:01:31 mon_nas twonky: Media Server script is begun. type=stop
  147. May 11 11:01:31 mon_nas twonky: stop Media Server
  148. May 11 11:01:36 mon_nas linkstation: DWARF : Killing all dwarves
  149. May 11 11:01:40 mon_nas FsckXFS: try to repair XFS....
  150. May 11 11:01:40 mon_nas FsckXFS: . giveup.
  151. May 11 11:01:40 mon_nas MountXFS: mount /dev/disk2_6 fail.
  152. May 11 11:01:41 mon_nas errormon[1542]: Information situation cleared! DISK         I21DISK2 Checking
  153. May 11 11:02:09 mon_nas twonky: Media Server script is begun. type=start
  154. May 11 11:02:09 mon_nas twonky: Media Server setting is off
  155. May 11 11:02:10 mon_nas errormon[1542]: Information situation detected! DISK         I21DISK3 Checking
  156. May 11 11:02:15 mon_nas twonky: Media Server script is begun. type=stop
  157. May 11 11:02:16 mon_nas twonky: stop Media Server
  158. May 11 11:02:20 mon_nas linkstation: DWARF : Killing all dwarves
  159. May 11 11:02:25 mon_nas FsckXFS: try to repair XFS....
  160. May 11 11:02:25 mon_nas FsckXFS: . giveup.
  161. May 11 11:02:25 mon_nas MountXFS: mount /dev/disk3_6 fail.
  162. May 11 11:02:26 mon_nas errormon[1542]: Information situation cleared! DISK         I21DISK3 Checking
  163. May 11 11:02:43 mon_nas kernelmon: cmd=raidrecovery 1 0 0 1 8 50
  164. May 11 11:02:57 mon_nas kernelmon: cmd=raidrecovery 10 1 1 1 8 53
  165. May 11 11:02:59 mon_nas twonky: Media Server script is begun. type=start
  166. May 11 11:03:00 mon_nas twonky: Media Server setting is off
  167. May 11 11:03:03 mon_nas errormon[1542]: Information situation detected! DISK         I21DISK4 Checking
  168. May 11 11:03:08 mon_nas twonky: Media Server script is begun. type=stop
  169. May 11 11:03:09 mon_nas twonky: stop Media Server
  170. May 11 11:03:15 mon_nas kernelmon: cmd=raidrecovery 10 0 0 1 8 53
  171. May 11 11:03:15 mon_nas linkstation: DWARF : Killing all dwarves
  172. May 11 11:03:21 mon_nas FsckXFS: try to repair XFS....
  173. May 11 11:03:21 mon_nas FsckXFS: . giveup.
  174. May 11 11:03:21 mon_nas MountXFS: mount /dev/disk4_6 fail.
  175. May 11 11:03:25 mon_nas errormon[1542]: Information situation cleared! DISK         I21DISK4 Checking
  176. May 11 11:03:35 mon_nas kernelmon: cmd=raidrecovery 1 1 1 1 8 50
  177. May 11 11:03:55 mon_nas twonky: Media Server script is begun. type=start
  178. May 11 11:03:55 mon_nas twonky: Media Server setting is off
  179. May 11 11:03:57 mon_nas linkstation: 1.50-2.89 2010/11/12 15:24:27 started!
  180. May 11 11:04:05 mon_nas errormon[1542]: Error situation detected! HD1 Error    E22HD1 Can't Mount
  181. May 11 11:04:07 mon_nas kernelmon: cmd=PSW_auto
  182. May 11 11:04:13 mon_nas errormon[1542]: Error situation detected! HD2 Error    E22HD2 Can't Mount
  183. May 11 11:04:21 mon_nas errormon[1542]: Error situation detected! HD3 Error    E22HD3 Can't Mount
  184. May 11 11:04:28 mon_nas errormon[1542]: Error situation detected! HD4 Error    E22HD4 Can't Mount
  185. May 11 11:05:19 mon_nas kernelmon: cmd=raidrecovery 1 0 0 1 8 50
  186. May 11 11:05:36 mon_nas kernelmon: cmd=raidrecovery 10 1 1 1 8 53
  187. May 11 11:05:53 mon_nas kernelmon: cmd=raidrecovery 10 0 0 1 8 53
  188. May 11 11:06:12 mon_nas kernelmon: cmd=raidrecovery 0 1 1 1 8 49
  189. May 11 11:06:13 mon_nas errormon[1542]: Information situation cleared! System       I01Self Checking
  190. May 11 11:06:40 mon_nas kernelmon: cmd=raidrecovery 0 0 0 1 8 49

 

Voici l'interface sur l'onglet de stockage :https://reho.st/self/88bb419cb91968fab5ac2521299ee9191b998236.png
Merci pour votre aide.


Message édité par caracole le 11-05-2018 à 12:29:22

---------------
Nous sommes faits de l'étoffe dont sont tissés les vents.
Reply

Marsh Posté le 11-05-2018 à 12:23:41   

Reply

Marsh Posté le 11-05-2018 à 12:35:09    

J'essaie UFSexplorer...
http://www.ufsexplorer.com/manual/pro/index.htm
C'est installé sur mon PC. Mais je ne parviens pas à connecter à mon NAS...

 

J'ai l'impression qu'il faut sortir les disques du NAS et les mettre dans mon PC...

Message cité 1 fois
Message édité par caracole le 11-05-2018 à 12:51:51

---------------
Nous sommes faits de l'étoffe dont sont tissés les vents.
Reply

Marsh Posté le 11-05-2018 à 12:55:00    

Est-ce que si je fais ça dans la NAS : https://reho.st/self/cffe65687f3a6c637fdb142e44f266a7ea953041.png
je vais tout paumer ou il va reconstruire le RAID seulement ?
 
 


---------------
Nous sommes faits de l'étoffe dont sont tissés les vents.
Reply

Marsh Posté le 11-05-2018 à 13:08:24    

Ne fais pas ça, là tu vas construire une nouvelle grappe à priori (donc adieu à ton filesystem et tes fichiers..)
 
As-tu un accès console sur le Buffalo ?

Reply

Marsh Posté le 11-05-2018 à 13:11:27    

Je ne crois pas que ça existe. Je n'en vois nulle part mention dans la doc en tout cas. :(


---------------
Nous sommes faits de l'étoffe dont sont tissés les vents.
Reply

Marsh Posté le 11-05-2018 à 13:19:27    

May 11 04:10:10 mon_nas linkstation: Attaching faulty flag (/dev/md2 -> /dev/sdb6)
May 11 04:10:10 mon_nas linkstation: Attaching faulty flag (/dev/md1 -> /dev/sdb2)
May 11 04:10:11 mon_nas linkstation: Attaching faulty flag (/dev/md10 -> /dev/sdb5)
May 11 04:10:11 mon_nas linkstation: Attaching faulty flag (/dev/md0 -> /dev/sdb1)
 
-> Eteins le NAS et sors le disque 2 (/dev/sdb), si le disque est canné, il devrait quand même pouvoir monter la grappe vu que c'est du RAID5.
 
EDIT : Profites-en pour faire un test SMART du disque en le connectant à ton PC. (test étendu)
 
Pour l'accès console, tu n'as pas une option "Activer SSH" ou telnet ?
 
EDIT : Apparemment, cela nécéssite un custom firmware :o  
 


Message édité par Profil supprimé le 11-05-2018 à 13:32:18
Reply

Marsh Posté le 11-05-2018 à 14:11:58    

caracole a écrit :

J'essaie UFSexplorer...
http://www.ufsexplorer.com/manual/pro/index.htm
C'est installé sur mon PC. Mais je ne parviens pas à connecter à mon NAS...
 
J'ai l'impression qu'il faut sortir les disques du NAS et les mettre dans mon PC...


Oui, à priori c'est ça : http://www.ufsexplorer.com/inf_terastation.php


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
Reply

Marsh Posté le 11-05-2018 à 14:57:42    

J'ai essayé le remplacement du disque 2.
Évidemment, il n'a rien voulu savoir. Le RAID n'existe plus pour lui.
J'ai démonté tous les disques, je vais essayer de les mettre dans ma tour.
Vraiment pas sûr d'avoir ce qu'il faut pour quatre disques...


---------------
Nous sommes faits de l'étoffe dont sont tissés les vents.
Reply

Marsh Posté le 11-05-2018 à 15:25:05    

Si tu parles anglais tu auras peut être plus d'informations sur le forum de Buffalo : http://forums.buffalotech.com/index.php?board=6.0
D'ailleurs vu ton cas même si tu ne parles pas anglais vas-y à coup de google translate.


Message édité par hot22shot le 11-05-2018 à 15:49:33
Reply

Marsh Posté le 11-05-2018 à 16:19:39    

J'ai démonté les disques et remontés dans mon PC. J'ai bien galéré...
 
J'ai suivi http://www.ufsexplorer.com/inf_terastation.php
 
Le problème maintenant c'est que mes "grosses partitions" (celles qui contiennent les data) sont marquées comme "unknown".  
 
https://reho.st/self/e3607080727b7f87fee5b1903f5852c056666dcd.png
 
Quand je tente la construction, je me retrouve avec du "unknown" également...


---------------
Nous sommes faits de l'étoffe dont sont tissés les vents.
Reply

Marsh Posté le 11-05-2018 à 16:19:39   

Reply

Marsh Posté le 11-05-2018 à 16:25:29    

J'ai lancé un data recovery en SGI XFS (c'est ce qu'il y a sur le tuto...), il en a pour 5 heures...


---------------
Nous sommes faits de l'étoffe dont sont tissés les vents.
Reply

Marsh Posté le 12-05-2018 à 12:15:29    

Ça n'a rien donné. :(
Quelqu'un comprend le screen au-dessus ?
Pourquoi mes partitions sont "unknown" ?
Je ne comprends pas comment je peux cumuler perdre le RAID et perdre chaque système de fichiers sur chaque disque...

Reply

Marsh Posté le 12-05-2018 à 12:43:46    

Faut reconstruire le raid pour avoir accès aux filesystems des partitions qui sont dessus, elles sont inutilisables en dehors de leur groupe RAID.


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
Reply

Marsh Posté le 12-05-2018 à 13:06:38    

Si le RAID est foireux (ce qui semble être le cas) tu peux faire une croix sur tes données... J'espère que tu as une sauvegarde !

 


Message édité par slr56 le 12-05-2018 à 13:07:57

---------------
Configurations type du moment : https://forum.hardware.fr/hfr/Hardw [...] 1331_1.htm  https://www.jouannetphotographe.com
Reply

Marsh Posté le 12-05-2018 à 13:08:31    

Oui c'est ce j'ai fait hier. Mais ensuite il trouve un volume en raw. Que j'ai essayé de passer en SGI XFS ça a pris 6h45. Et je n'ai vu aucune donnée.
Tu sélectionnerais quoi pour mettre dans le RAID avec ce logiciel ?
D'après leur doc, j'ai du mal...
J'ai essayé les disques eux-mêmes.
J'ai essayé les grosses partitions (~1To).
Il faut mettre toutes les partitions de tous les disques ?
 
Je ne comprends pas non plus pourquoi dans leur doc sur leur screenshot, les disques apparaissent dans l'ordre inverse.


---------------
Nous sommes faits de l'étoffe dont sont tissés les vents.
Reply

Marsh Posté le 12-05-2018 à 13:11:29    

@sir56, j'ai "uniquement" des sauvegardes des documents administratifs et des photos. Ce qui est quand même l'essentiel/pas si mal mais je suis vraiment dégoûté. J'utilise ce putain de NAS pour palier à un problème de disque dur et finalement c'est la même merde que n'importe quel mec qui met toute sa vie sur son disque USB qu'il trimbale partout...
Pour les films, séries, musique, mangas, animes etc. tant pis mais j'avais des tonnes de trucs de la "vie courante"...


Message édité par caracole le 12-05-2018 à 13:12:28

---------------
Nous sommes faits de l'étoffe dont sont tissés les vents.
Reply

Marsh Posté le 12-05-2018 à 13:55:56    

T'as bien suivi la procédure et rajouté les disques dans le bon ordre pour reconstruire le RAID5 ?


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
Reply

Marsh Posté le 12-05-2018 à 15:01:42    

C'est ce que je demande. :o
Pourquoi sur leur site l'affichage des disques se fait dans l'ordre inverse. Moi quand je les ajoute dans le bon ordre, ils y restent.
J'ajoute quoi ? Les disques ou les partitions? J'ai essayé les disques => quedalle. Les grosses partitions => quedalles.
 
Pourquoi mes disques sont en unkwnow et pas en XFS comme sur leurs screens ?


---------------
Nous sommes faits de l'étoffe dont sont tissés les vents.
Reply

Marsh Posté le 12-05-2018 à 15:09:33    

Tu as du mal avec l'anglais ? (Vrai question hein, y a pas de mal)
Parce que c'est expliqué :

 
Citation :

RAID 5 is usually a default RAID configuration for 4-disk Buffalo TeraStation and is offered as a default setting in UFS Explorer.

 

To reconstruct RAID 5:

 

Add data partitions of each NAS drive to the components list in the correct order. The first data partition will be SGI XFS, the others – Raw partitions;If one of the drives is missing, press 'Placeholder' button to substitute the missing drive. The placeholder takes the place of the missing drive following the drives order;Adjust stripe size, if required (Buffalo products use default 64KB stripe size);Press 'Build'.

 

Il faut donc utiliser les partitions.
Et en RAID5 seulement une doit s'afficher en XFS. Comme il te manque un disque, c'était peut-être celui là qui l'aurait affiché.
Quoiqu'il en soit, tu rajoutes les partitions dans le même ordre que dans le NAS, et pour le disque manquant, tu rajoutes un "placeholder" pour qu'il sache qu'il manque un bout.


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
Reply

Marsh Posté le 12-05-2018 à 15:28:10    

Merci pour ton aide. ;)
Oui je ne suis pas hyper à l'aise avec l'anglais.
Mais on voit sur leur doc qu'il y a un SGI XFS par disque.
Et de plus, sur leur reconstitution de RAID, il n'y a que quatre (disques? partitions?) sélectionné(e)s.
Je vais faire un screen de ce que je fais pour être sûr qu'on soit bien sur la même longueur d'onde.


Message édité par caracole le 12-05-2018 à 15:30:31

---------------
Nous sommes faits de l'étoffe dont sont tissés les vents.
Reply

Marsh Posté le 12-05-2018 à 15:34:37    

Qu'on choisisse telle ou telle partition, il n'est pas possible d'ajouter une autre partition du même disque (elles disparaissent de la liste) ... :(


---------------
Nous sommes faits de l'étoffe dont sont tissés les vents.
Reply

Marsh Posté le 12-05-2018 à 15:37:27    

On voit que sur leur screen, ils ont choisi la grosse partition. Par exemple pour leur disque 3 ça correspond bien à "from sector 13687652"


---------------
Nous sommes faits de l'étoffe dont sont tissés les vents.
Reply

Marsh Posté le 12-05-2018 à 15:47:49    

Je suis tombé là-dessus : https://www.youtube.com/watch?v=Iri65p4mUpM
 
Ils ont bien une 2e (en rouge) partition SGI XFS sur un disque...
 
Bref, j'avais déjà fait des essais en utilisant "build" et pas "preview build" donc je pense que même si ce n'était pas déjà le cas, maintenant j'ai vraiment tout niqué... :(


---------------
Nous sommes faits de l'étoffe dont sont tissés les vents.
Reply

Marsh Posté le 12-05-2018 à 22:40:25    

Pour info/rappel, le RAID n'est pas une solution de SAUVEGARDE. Le RAID est une technologie qui permet la REDONDANCE dans le cas de la défaillance d'un disque dur (selon le raid choisi).


---------------
Configurations type du moment : https://forum.hardware.fr/hfr/Hardw [...] 1331_1.htm  https://www.jouannetphotographe.com
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed