[Résolu] Récupération superblock, crash synology raid 1 SHR

Récupération superblock, crash synology raid 1 SHR [Résolu] - Hardware - Linux et OS Alternatifs

Marsh Posté le 03-03-2016 à 15:22:37    

Bonjour à tous :)
 
J'ai un énorme besoin de votre aide pour m'aider à récupérer mes données ! :)  
 
Suite à un crash inexpliqué d'un Serveur Synology (DS212j, Raid 1) j'essaye tant bien que mal de remonter le raid sous Ubuntu depuis quelques jours..
 
Brièvement l'explication de mes premières (mauvaises) manips :
 
Alors Suite au crash, redémarrage, un volume non trouvé (led éteinte disk2) et volume 1 clignotant. Led verte Status clignotant après le bip.  
Mes deux disques font un cliquetis comme si ils n'avaient pas assez de puissance pour se lancer.
Je pense à la carte mère du syno, mais la led bleu fixe indique que ce n'est pas ça..
 
Installation de Synology manager, et je constate que le DSM n'est plus détecté/installé.
 
j'ai réessayer de réinstaller un DSM, mais sans succès car il échoue à l'écriture de la partition système :
http://image.noelshack.com/fichiers/2016/09/1457002736-erreurinstallationdsm.png
 
Arrêt du syno, démontage des deux disques et essai d'installation de DSM sur un vieux disque avec plein de secteur foutu, mais cela fonctionne.
 
Je m'intéresse donc au disques, (ceux démarre très bien lorsque je les branche à un adaptateur) j'effectue un test smart basique sous Windows et constate que mes disques ne contiennent aucunes erreurs;
Soulagement de courte durée jusqu’à que je m'intéresse au partitionnement et raid utilisé par synology lorsque qu'on laisse les options par défaut.. On apprend de ses erreurs hein..
 
Pour information si cela peut servir à d'autre : je ne sais pour quel raison, mais en branchant mes disques sur un convertisseur Sata/usb, le disque était reconnu comme deux par l'OS (windows ou Linux). Ce qui, jusqu’à que je m'en aperçoive m'a certainement permis de faire des erreurs..
 
 
Voici les logs de tout ce qui peut être utile pour m'aider à lire cette fichu partition, sous ubuntu avec un seul des disques raid branché en interne et reconnu correctement :)
 
J'ai retrouvé et réécris les partitions [md1] [md2] et Diskstation:2 grâce à testdisk.
 

Citation :

Partition table type (auto): EFI GPT
Disk /dev/sdc - 3000 GB / 2794 GiB
Partition table type: EFI GPT
 
Analyse Disk /dev/sdc - 3000 GB / 2794 GiB - CHS 720764 173 47
hdr_size=92
hdr_lba_self=1
hdr_lba_alt=5860533167 (expected 5860533167)
hdr_lba_start=34
hdr_lba_end=5860533134
hdr_lba_table=2
hdr_entries=128
hdr_entsz=128
Current partition structure:
 1 P Linux Raid                   256    4980735    4980480 [md0]
 2 P Linux Raid               4980736    9175039    4194304 [md1]
 3 P Linux Raid               9437184 5860525703 5851088520 [DiskStation:2]


 
- smartctl -a /dev/sdc (disque du raid)

Citation :

smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.19.0-25-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org
 
=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Red (AF)
Device Model:     WDC WD30EFRX-68AX9N0
Serial Number:    WD-WMC1T2244957
LU WWN Device Id: 5 0014ee 6586ddeee
Firmware Version: 80.00A80
User Capacity:    3 000 592 982 016 bytes [3,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Thu Mar  3 10:23:13 2016 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
 
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
 
General SMART Values:
Offline data collection status:  (0x00) Offline data collection activity
     was never started.
     Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0) The previous self-test routine completed
     without error or no self-test has ever  
     been run.
Total time to complete Offline  
data collection:   (39120) seconds.
Offline data collection
capabilities:     (0x7b) SMART execute Offline immediate.
     Auto Offline data collection on/off support.
     Suspend Offline collection upon new
     command.
     Offline surface scan supported.
     Self-test supported.
     Conveyance Self-test supported.
     Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
     power-saving mode.
     Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
     General Purpose Logging supported.
Short self-test routine  
recommended polling time:   (   2) minutes.
Extended self-test routine
recommended polling time:   ( 393) minutes.
Conveyance self-test routine
recommended polling time:   (   5) minutes.
SCT capabilities:         (0x70bd) SCT Status supported.
     SCT Error Recovery Control supported.
     SCT Feature Control supported.
     SCT Data Table supported.
 
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   176   175   021    Pre-fail  Always       -       6175
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       199
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   086   086   000    Old_age   Always       -       10456
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       141
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       54
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       144
194 Temperature_Celsius     0x0022   113   109   000    Old_age   Always       -       37
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   100   253   000    Old_age   Offline      -       0
 
SMART Error Log Version: 1
ATA Error Count: 744 (device log contains only the most recent five errors)
 CR = Command Register [HEX]
 FR = Features Register [HEX]
 SC = Sector Count Register [HEX]
 SN = Sector Number Register [HEX]
 CL = Cylinder Low Register [HEX]
 CH = Cylinder High Register [HEX]
 DH = Device/Head Register [HEX]
 DC = Device Command Register [HEX]
 ER = Error register [HEX]
 ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.
 
Error 744 occurred at disk power-on lifetime: 10369 hours (432 days + 1 hours)
  When the command that caused the error occurred, the device was active or idle.
 
  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  04 61 46 00 00 00 a0  Device Fault; Error: ABRT
 
  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  ef 03 46 00 00 00 a0 08  30d+11:22:26.674  SET FEATURES [Set transfer mode]
  ec 00 00 00 00 00 a0 08  30d+11:22:26.660  IDENTIFY DEVICE
  c8 00 08 68 40 4d e0 08  30d+11:22:26.104  READ DMA
  ec 00 00 00 00 00 a0 08  30d+11:22:26.074  IDENTIFY DEVICE
  ef 03 46 00 00 00 a0 08  30d+11:22:26.055  SET FEATURES [Set transfer mode]
 
Error 743 occurred at disk power-on lifetime: 10369 hours (432 days + 1 hours)
  When the command that caused the error occurred, the device was active or idle.
 
  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  04 61 08 68 40 4d e0  Device Fault; Error: ABRT 8 sectors at LBA = 0x004d4068 = 5062760
 
  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  c8 00 08 68 40 4d e0 08  30d+11:22:26.104  READ DMA
  ec 00 00 00 00 00 a0 08  30d+11:22:26.074  IDENTIFY DEVICE
  ef 03 46 00 00 00 a0 08  30d+11:22:26.055  SET FEATURES [Set transfer mode]
  ec 00 00 00 00 00 a0 08  30d+11:22:26.040  IDENTIFY DEVICE
  c8 00 08 68 40 4d e0 08  30d+11:22:25.484  READ DMA
 
Error 742 occurred at disk power-on lifetime: 10369 hours (432 days + 1 hours)
  When the command that caused the error occurred, the device was active or idle.
 
  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  04 61 46 00 00 00 a0  Device Fault; Error: ABRT
 
  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  ef 03 46 00 00 00 a0 08  30d+11:22:26.055  SET FEATURES [Set transfer mode]
  ec 00 00 00 00 00 a0 08  30d+11:22:26.040  IDENTIFY DEVICE
  c8 00 08 68 40 4d e0 08  30d+11:22:25.484  READ DMA
  ec 00 00 00 00 00 a0 08  30d+11:22:25.455  IDENTIFY DEVICE
  ef 03 46 00 00 00 a0 08  30d+11:22:25.436  SET FEATURES [Set transfer mode]
 
Error 741 occurred at disk power-on lifetime: 10369 hours (432 days + 1 hours)
  When the command that caused the error occurred, the device was active or idle.
 
  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  04 61 08 68 40 4d e0  Device Fault; Error: ABRT 8 sectors at LBA = 0x004d4068 = 5062760
 
  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  c8 00 08 68 40 4d e0 08  30d+11:22:25.484  READ DMA
  ec 00 00 00 00 00 a0 08  30d+11:22:25.455  IDENTIFY DEVICE
  ef 03 46 00 00 00 a0 08  30d+11:22:25.436  SET FEATURES [Set transfer mode]
  ec 00 00 00 00 00 a0 08  30d+11:22:25.421  IDENTIFY DEVICE
  c8 00 08 68 40 4d e0 08  30d+11:22:24.865  READ DMA
 
Error 740 occurred at disk power-on lifetime: 10369 hours (432 days + 1 hours)
  When the command that caused the error occurred, the device was active or idle.
 
  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  04 61 46 00 00 00 a0  Device Fault; Error: ABRT
 
  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  ef 03 46 00 00 00 a0 08  30d+11:22:25.436  SET FEATURES [Set transfer mode]
  ec 00 00 00 00 00 a0 08  30d+11:22:25.421  IDENTIFY DEVICE
  c8 00 08 68 40 4d e0 08  30d+11:22:24.865  READ DMA
  ec 00 00 00 00 00 a0 08  30d+11:22:24.835  IDENTIFY DEVICE
  ef 03 46 00 00 00 a0 08  30d+11:22:24.816  SET FEATURES [Set transfer mode]
 
SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]
 
 
SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.


 
Pas de secteurs défectueux ou anomalie mais ces erreurs "ABRT", je pense que cela correspond à la coupure du NAS, ces erreurs ont-elle une incidences sur le disque ? ou ce sont juste des logs ?
 
- gdisk -l /dev/sdc

Citation :

GPT fdisk (gdisk) version 0.8.8
 
Partition table scan:
  MBR: protective
  BSD: not present
  APM: not present
  GPT: present
 
Found valid GPT with protective MBR; using GPT.
Disk /dev/sdc: 5860533168 sectors, 2.7 TiB
Logical sector size: 512 bytes
Disk identifier (GUID): BC41BDFC-89C5-0740-8322-790BC8BE333E
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 5860533134
Partitions will be aligned on 256-sector boundaries
Total free space is 532325 sectors (259.9 MiB)
 
Number  Start (sector)    End (sector)  Size       Code  Name
   1             256         4980735   2.4 GiB     FD00  
   2         4980736         9175039   2.0 GiB     FD00  
   3         9437184      5860263175   2.7 TiB     FD00  
 


 
- parted -l

Citation :

Modèle: ATA WDC WD30EFRX-68A (scsi)
Disque /dev/sdc : 3001GB
Taille des secteurs (logiques/physiques): 512B/4096B
Table de partitions : gpt
 
Numéro  Début   Fin     Taille  Système de fichiers  Nom  Fanions
 1      131kB   2550MB  2550MB  ext4                      raid
 2      2550MB  4698MB  2147MB  linux-swap(v1)            raid
 3      4832MB  3000GB  2996GB                            raid
 


 
- mdadm --examine /dev/sd3

Citation :

/dev/sdc3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : b066c1e2:0865d203:003cb7b1:abe75fd0
           Name : jerome-System-Product-Name:0  (local to host jerome-System-Product-Name)
  Creation Time : Thu Mar  3 09:47:50 2016
     Raid Level : raid1
   Raid Devices : 2
 
 Avail Dev Size : 5850826376 (2789.89 GiB 2995.62 GB)
     Array Size : 2925412992 (2789.89 GiB 2995.62 GB)
  Used Dev Size : 5850825984 (2789.89 GiB 2995.62 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : f24a7278:0f624bce:4c8a502e:81b4eaa5
 
    Update Time : Thu Mar  3 09:47:50 2016
       Checksum : 235d8dc6 - correct
         Events : 0
 
 
   Device Role : Active device 0
   Array State : A. ('A' == active, '.' == missing)


 
- mdadm --examine /dev/sdc3 | grep -E "(^\/dev|UUID)"

Citation :

/dev/sdc3:
     Array UUID : b066c1e2:0865d203:003cb7b1:abe75fd0
    Device UUID : f24a7278:0f624bce:4c8a502e:81b4eaa5


 
 
Ensuite pour assembler le raid :  
 
Méthode indiqué par synology :  https://www.synology.com/fr-fr/know [...] using_a_PC
- mdadm -Asf && vgchange -ay

Citation :

mdadm: looking for devices for further assembly
mdadm: no RAID superblock on /dev/sde1
mdadm: no RAID superblock on /dev/sde
mdadm: no RAID superblock on /dev/sdd5
mdadm: no RAID superblock on /dev/sdd2
mdadm: no RAID superblock on /dev/sdd1
mdadm: no RAID superblock on /dev/sdd
mdadm: no RAID superblock on /dev/sdb1
mdadm: no RAID superblock on /dev/sdb
mdadm: no RAID superblock on /dev/sdc3
mdadm: no RAID superblock on /dev/sdc2
mdadm: no RAID superblock on /dev/sdc1
mdadm: no RAID superblock on /dev/sdc
mdadm: no RAID superblock on /dev/sda3
mdadm: no RAID superblock on /dev/sda2
mdadm: no RAID superblock on /dev/sda1
mdadm: no RAID superblock on /dev/sda
mdadm: looking for devices for /dev/md/Volume0
mdadm: Cannot assemble mbr metadata on /dev/sde1
mdadm: Cannot assemble mbr metadata on /dev/sde
mdadm: no recogniseable superblock on /dev/sdd5
mdadm: Cannot assemble mbr metadata on /dev/sdd2
mdadm: no recogniseable superblock on /dev/sdd1
mdadm: Cannot assemble mbr metadata on /dev/sdd
mdadm: Cannot assemble mbr metadata on /dev/sdb1
mdadm: Cannot assemble mbr metadata on /dev/sdb
mdadm: /dev/sdc3 has wrong uuid.
mdadm: no recogniseable superblock on /dev/sdc2
mdadm: no recogniseable superblock on /dev/sdc1
mdadm: Cannot assemble mbr metadata on /dev/sdc
mdadm: Cannot assemble mbr metadata on /dev/sda3
mdadm: Cannot assemble mbr metadata on /dev/sda2
mdadm: Cannot assemble mbr metadata on /dev/sda1
mdadm: no RAID superblock on /dev/sda


 
Par contre lorsque j'essaye :
- mdadm --assemble --verbose /dev/md0  /dev/sdc3

Citation :

mdadm: looking for devices for /dev/md0
mdadm: /dev/sdc3 is identified as a member of /dev/md0, slot 0.
mdadm: no uptodate device for slot 1 of /dev/md0
mdadm: added /dev/sdc3 to /dev/md0 as 0
mdadm: /dev/md0 has been started with 1 drive (out of 2).


 
- cat /proc/mdstat

Citation :

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]  
md0 : active raid1 sdc3[0]
      2925412992 blocks super 1.2 [2/1] [U_]
       
unused devices: <none>


 
- mdadm --examine /dev/md0

Citation :

mdadm: No md superblock detected on /dev/md0.


 
Si j'essaye de la monter :
mount -t ext4 -o ro /dev/md0 /mnt/nas

Citation :

mount : mauvais type de système de fichiers, option erronée, superbloc erroné
        sur /dev/md0, page de code ou programme auxiliaire manquant, ou autre erreur
       Dans quelques cas certaines informations sont utiles dans le journal
        système — essayez « dmesg | tail » ou quelque chose du genre


 
Donc si je comprends bien, l'intégrité du système de fichier est corrompu ?
 
- fsck /dev/md0

Citation :

fsck de util-linux 2.20.1
e2fsck 1.42.9 (4-Feb-2014)
ext2fs_open2: Numéro magique invalide dans le super-bloc
fsck.ext2 : Superbloc invalide, tentons d'utiliser les blocs de sauvetage...
fsck.ext2: Numéro magique invalide dans le super-bloc lors de la tentative d'ouverture de /dev/md0
 
The superbloc could not be read or does not describe a valid ext2/ext3/ext4
système de fichiers.  If the périphérique is valid and it really contains an ext2/ext3/ext4
système de fichiers (and not swap or ufs or something else), then the superbloc
is corrupt, and you might try running e2fsck with an alternate superbloc:
    e2fsck -b 8193 <périphérique>
 or
    e2fsck -b 32768 <périphérique>


 
Je commence donc à rechercher un backup du superblock sur un autre secteur :
 
- mke2fs -n /dev/md0

Citation :

mke2fs 1.42.9 (4-Feb-2014)
Étiquette de système de fichiers=
Type de système d'exploitation : Linux
Taille de bloc=4096 (log=2)
Taille de fragment=4096 (log=2)
« Stride » = 0 blocs, « Stripe width » = 0 blocs
182845440 i-noeuds, 731353248 blocs
36567662 blocs (5.00%) réservés pour le super utilisateur
Premier bloc de données=0
Nombre maximum de blocs du système de fichiers=4294967296
22320 groupes de blocs
32768 blocs par groupe, 32768 fragments par groupe
8192 i-noeuds par groupe
Superblocs de secours stockés sur les blocs :  
 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,  
 4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,  
 102400000, 214990848, 512000000, 550731776, 644972544


 
J'ai essayé tous ces blocs avec :  
- e2fsck -b 644972544 /dev/md0

Citation :

e2fsck 1.42.9 (4-Feb-2014)
e2fsck: Argument invalide lors de la tentative d'ouverture de /dev/md0
 
The superbloc could not be read or does not describe a valid ext2/ext3/ext4
système de fichiers.  If the périphérique is valid and it really contains an ext2/ext3/ext4
système de fichiers (and not swap or ufs or something else), then the superbloc
is corrupt, and you might try running e2fsck with an alternate superbloc:
    e2fsck -b 8193 <périphérique>
 or
    e2fsck -b 32768 <périphérique>


 
 
Voilà ou j'en suis actuellement et je vous avoue que la suite me fait un peu peur, j’espère qu'une récupération reste possible et qu'une grande âme voudra bien m'aider :)
 
J'ai peut être aussi fait une erreur en essayant ces commandes suivante :
- mdadm --zero-superblock /dev/sdc3
- mdadm --create /dev/md0 --verbose --assume-clean --metadata=1.2 --level=1 --raid-devices=2 /dev/sdc3 missing
 
issue de ce ticket : http://serverfault.com/questions/6 [...] -with-mdam ressemblant énormément à mon cas.
 
 
Est ce que quelqu'un pourrait m'expliquer ce qu'est l'offset qui est calculé dans ce sujet ci :
https://forum.synology.com/enu/viewtopic.php?t=71546
 
Est-il possible d’utiliser loop sans retrouver le superblock ?
 
 
Ce sujet est aussi très intéressant :
https://bbs.archlinux.org/viewtopic.php?id=173635  
ainsi que celui ci : http://unix.stackexchange.com/ques [...] uperblocks
 
J'aimerais avoir des avis sur "mke2fs -S", est t-il possible de réécrire le superblock ?
 
 
Je précise que j'ai toujours l'autre disque sur lequel je n'ai utilisé que testdisk sous windows et à mon souvenir je n'ai touché à rien. je n'ai pas fait de backup n'ayant pas d'autre disque de 3To.
Je pense que l'autre disque est dans le même état mais je n'ai pas encore regardé. En dernier recours il reste Photorec qui, je suis certain fonctionnera mais si je pouvais éviter ceci..
 
Je suis désolé si c'est long à lire et très brouillon, mais je voulais mettre le max d'info pour que vous puissiez m'aider, je vous avoue que j'en ai un peu plein la tête et que je ne sais plus vers où m'orienter..
J'espère que qqn aura une fabuleuse idée pour retrouver ce superblock.
 
Merci d'avance de prendre le temps de vous intéressez à mon cas perdu.


Message édité par zalea le 04-03-2016 à 16:17:27
Reply

Marsh Posté le 03-03-2016 à 15:22:37   

Reply

Marsh Posté le 03-03-2016 à 18:10:26    

si ce n'est déjà fait poste sur http://www.nas-forum.com/forum/
 
tu auras des réponse précise des spécialistes là bas.


---------------
Mes ventes/échanges/achat  Feed back
Reply

Marsh Posté le 03-03-2016 à 18:58:52    

Merci beaucoup, j'y vais de ce pas.  
 
Sur ce sujet : http://forum.cgsecurity.org/phpBB3 [...] tml#p12685
il est dit :  
"Recommencez le testdisk sur l'un des disques, en mettant "none" comme type de partition et dans les options "cylinder boundary : no". Quand vous trouvez la bonne partition, listez les fichiers (touche "P" ) pour vérifier que c'est la bonne et qu'elle est fonctionnelle. Notez alors les informations de positionnement LBA ou CHS et la taille et donnez les infos."
 
Je ne trouve pas l'option "cylinder boundary" et il trouve bien toutes les partitions mais je n'ai pas la possibilité de les explorer.  
 
Si qqn à une piste avec cette méthode..


Message édité par zalea le 03-03-2016 à 19:53:03
Reply

Marsh Posté le 04-03-2016 à 16:13:28    

Hello,
 
J'ai pu récupérer mes données grâce à l'autre disque :)
Le superblock était lui aussi effacé mais par contre toujours présent sur les secteurs de sauvegarde :)
Le raid c'est monté sans difficulté après cette opération donc le sujet est clos :)
Dois-je faire qqch pour mettre mon sujet en résolu ?

Reply

Marsh Posté le 05-03-2016 à 15:13:14    

juste éditer le titre comme tu l'as fait.


---------------
Celui qui pose une question est idiot 5 minutes. Celui qui n'en pose pas le reste toute sa vie. |  Membre du grand complot pharmaceutico-médico-scientifico-judéo-maçonnique.
Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed