|
Jak zabezpieczyć się przed utratą danych
Z artykułu dowiesz się:
- jakie są rodzaje zabezpieczeń przed utratą dostępu do danych
- jak zabezpieczyć się w 100% przed utratą danych
- jakie są najczęstsze przypadki utraty dostępu do danych
- jakie najczęściej popełniamy błędy po utracie danych
Co powinieneś wiedzieć
- znać podstawy obsługiwanego systemu operacyjnego
Wstęp
Kolejny artykuł ma za zadanie przybliżyć nam problematykę zabezpieczenia się przed utratą dostępu do danych. W ogólnym zarysie postaramy się także udzielić kilku cennych wskazówek, dotyczących dalszego postępowania w sytuacji, kiedy już dojdzie do awarii, a my nie posiadamy kopii zapasowych naszych krytycznych danych.
Większość z nas posiada na swoich komputerach dane, których nie chcielibyśmy stracić. Oczywiście zdajemy sobie sprawę z konieczności zabezpieczenia się przed ich utratą... i niestety, często na tym etapie pozostajemy bezczynni. Aż do momentu, kiedy np. nasz twardy dysk brutalnie nam o tym przypomni. Aby się przed tym zabezpieczyć należy zacząć przestrzegać kilku zasad oraz uzbroić się w odrobinę systematyczności i cierpliwości przy regularnym wykonywaniu kopii zapasowych.
Jakie są rodzaje zabezpieczeń przed utratą dostępu do danych
Na początku należy stwierdzić, że w teorii nie występują rozwiązania dające nam 100% bezpieczeństwa - każda technologia może ulec awarii pozbawiając nas dostępu do danych. Natomiast w praktyce stosuje się dwa rozwiązania:
- podjęcie działań zmniejszających do możliwego minimum szansę na utratę danych w wyniku awarii sprzętu
- dywersyfikacja źródeł danych - czyli po prostu systematyczne wykonywanie ich kopii.
Pierwsze z powyższych rozwiązań, to metoda bierna, mająca na celu zminimalizowanie szansy wystąpienia awarii samego nośnika. W większości przypadków nasze dane przechowywane są na dyskach twardych - w związku z tym należy bezwzględnie pamiętać, że są to urządzenia, które są bardzo wrażliwe na wszelkiego rodzaju fizyczne czynniki zewnętrzne takie jak wysoka temperatura bądź szok udarowy.
Dlatego zakupując komputer bądź dysk przenośny warto o tym pomyśleć i przestrzegać kilku podstawowych zasad.
Metody bierne zapobiegania utracie dostępu do danych
Oto kila przykładów działań pozwalających zminimalizować szanse awarii twardego dysku:
- w komputerach stacjonarnych należy regularnie kontrolować czystość; gruba warstwa kurzu na dysku potrafi bardzo szybko doprowadzić do dekalibracji termicznej dysku,
- jeżeli to możliwe zamontujmy w komputerze wentylator skierowany na dysk, będzie on skutecznie zmniejszał temperaturę podczas pracy dysku i jednocześnie spowalniał proces osadzania się kurzu,
- komputer stacjonarny nie powinien stać pod biurkiem w pobliżu naszych nóg; nawet lekkie uderzenia (szczególnie podczas jego pracy) mogą być zabójcze dla naszego HDD,
- komputer nie powinien być umiejscowiony w pobliżu źródeł ciepła, np. kaloryfera,
- jeżeli mamy komputer umiejscowiony na biurku (stacjonarny bądź przenośny), nie wolno nam uderzać w jego blat (szczególnie podczas pracy - dysk jest narażony na dekalibrację mechaniczną),
- należy pamiętać, aby nie pozostawiać na dłuższy czas pracującego komputera (oczywiście z wyjątkiem sytuacji, gdzie jesteśmy do tego zmuszeni),
- komputery przenośne (np. laptopy) mają mało wydajny system wentylacyjny; dlatego też absolutnie nie wolno wykonywać na nich dłuższych prac (powyżej kilkunastu minut) w warunkach, w których może doprowadzić to do przegrzania dysku. Przykładem może tu być praca na miękkim podłożu, takim jak koc bądź pościel - w takich warunkach skuteczność systemu odprowadzania ciepła spada niemal do kilkunastu procent,
- dyski zewnętrzne są dużo mocniej narażone na czynniki udarowe bądź termiczne; dotyczy to w szczególności dysków 3.5 calowych (wg statystyk ok. połowy z nich ulega awarii do ok. roku czasu !) - dlatego powinny być one traktowane w sposób wyjątkowo ostrożny. Optymalnymi warunkami pracy takich dysków jest znalezienie dla nich bezpiecznego miejsca na biurku i bez zwisających na wierzchu przewodów,
- wybierajmy zawsze zewnętrzne dyski, które leżą a nie stoją (dotyczy 3.5 calowych) - dyski stojące często ulegają przewróceniu,
- nie przesuwajmy i nie podnośmy dysku zewnętrznego (podczas pracy jest to szczególnie niebezpieczne),
- ograniczmy do maksimum przypadki przenoszenia dysku,
- dyski 2.5 calowe są w sposób szczególny narażone na nawet delikatne naciśnięcia - w takich sytuacjach często dochodzi do nieprawidłowego zatrzymania (zarycia się) głowic na wirującym platerze,
- przed każdym przenoszeniem dysku należy pomyśleć o ich stosownym zabezpieczeniu - nie należy przenosić luzem dysku bez żadnego zabezpieczenia - w razie przypadkowego upadku szansa na utratę dostępu do danych wynosi sporo ponad 90%,
- występowanie anomalii napięciowych jest istną zmorą, jeżeli chodzi o uszkodzenia elektroniki dysków twardych. W tego typu sytuacjach elementem najbardziej zawodnym jest zasilacz komputera - dlatego zwróćmy uwagę na jego jakość.
Przestrzeganie powyższych i wielu innych, podstawowych zasad pozwoli nam wydajnie zwiększyć żywotność naszych dysków i zminimalizować do minimum ryzyko wystąpienia awarii. W tym miejscu należy jednak stwierdzić, że metody bierne nie zmniejszają szans wystąpienia utraty danych z przyczyn logicznych (skasowanie danych, format, itp.). Tutaj jedyną metodą jest systematyczność w okresowym wykonywaniu kopii zapasowych. Jest to tzw. czynna metoda zabezpieczenia przed utratą danych.
Metody czynne zapobiegania utracie dostępu do danych
Podobno ludzie dzielą się na tych wykonujących kopie zapasowe swoich danych jak i na tych, którzy będą je wykonywać. Ze stwierdzeniem tym trudno polemizować - podobnie jak z tym, że ludzie dzielą się na mądrych i głupich...
Wykonywanie kopii zapasowych - czyli dywersyfikacja źródeł danych - to jeden z najskuteczniejszych sposobów zabezpieczenia się przed ich utratą.
W większości przypadków, tzn. takich, które nie wymagają błyskawicznego dostępu do danych oraz zakładają określony margines czasowy (w sensie ich aktualności) idealnym rozwiązaniem jest robienie kopii zapasowych. W tego typu sytuacjach kopie zapasowe robimy w odstępach czasowych odpowiadających naszym potrzebom (raz na miesiąc, raz na tydzień czy nawet raz dziennie - jeżeli ktoś codziennie pracuje w sposób efektywny przez kilka godzin). W praktyce jest to idealne rozwiązanie dla tego typu osób lub firm - jednakże musi być przestrzeganych kilka żelaznych zasad:
- systematyczność - jej brak jest najczęstszym "grzechem" i przez to powodem utraty dostępu do
danych (dla przykładu: księgowy małej lub średniej firmy nie powinien zakończyć pracy zanim
nie wykona kopii danych z całego dnia lub tygodnia)
- każdorazowa weryfikacja wykonanych kopii - praktyka pokazuje, że samo wykonanie kopii nie
zawsze jest jednoznaczne z zamierzonym efektem (czasami się zdarza, że ludzie wykonują kopie
na zniszczonych dyskietkach lub taśmach, po czym okazuje się że krytyczne dane nie są już
nagrywane na ww. nośniki od np. kilku miesięcy).
- maksymalna dywersyfikacja źródeł kopii pod względem rodzaju nośnika i jego umiejscowienia -
zrobienie kopii danych w obrębie jednego np. komputera czy nośnika (inny katalog, inna partycja,
drugi dysk) w praktyce nie powoduje znaczącego zwiększenia poziomu bezpieczeństwa. W
wypadku awarii np. zasilacza uszkodzeniu mogą ulec wszystkie elementy wewnątrz komputera.
- w przypadku notorycznej pracy na większych ilościach danych, np. prace graficzne, obróbka
strumieni AV, itp. należy pomyśleć o wykonywaniu kopii różnicowych, które będą obejmować
kilka bądź kilkanaście punktów backupowych wstecz (w zależności od potrzeb) - takie
rozwiązanie gwarantuje sprawne i systematyczne wykonywanie kopii nawet większej ilości
danych.
Jak zabezpieczyć się w 100% przed utratą danych
Idealnym rozwiązaniem jest stosowanie obydwu metod, tzn. biernej i czynnej. Realizowane jest to przez układy, których konstrukcja i wbudowane dodatkowe zabezpieczenia w sposób naturalny wydatnie zmniejszają szanse na wystąpienie awarii (np. serwery macierzowe, układy klastrowe w sieci, nadmiarowe zasilacze itp. ) i które dodatkowo wykonują jednocześnie kopię zapasową.
Rozwiązania te są szczególnie pożądane tam, gdzie nieakceptowana jest przerwa w dostępie do danych (banki, korporacje, giełdy, duże firmy produkcyjne itp.) Często w tego typu układach stosuje się "multibackup online" (dane są archiwizowane na w na bieżąco czasie rzeczywistym) i jednocześnie w wielu miejscach. Jednakże takie rozwiązania są często bardzo kosztowne i muszą mieć swoje uzasadnienie ekonomiczne w wypadku wystąpienia potencjalnej awarii.
Przyjmuje się, że idealnym rozwiązaniem jest posiadane trzech źródeł danych nie powiązanych ze sobą w jakikolwiek sposób i przechowywanych oddzielnie np. źródłowy dysk twardy, płyta CD/DVD oraz np. pamięć wymienna (Pendrive). W takim układzie ryzyko utraty krytycznych danych w praktyce spada do zera.
Jakie są najczęstsze przypadki utraty dostępu do danych
W praktyce można spotkać dwa podstawowe rodzaje przyczyn utraty danych, jeżeli chodzi o ich naturę:
- uszkodzenia logiczne,
- uszkodzenia fizyczne.
Każde z nich możemy podzielić jeszcze na pewne podtypy, które posiadają odmienną charakterystykę przyczynowo-skutkową.
I tak - uszkodzenia logiczne dzielą się na:
- uszkodzenie systemu operacyjnego,
- uszkodzenie systemu plików,
- uszkodzenie logiczne powstałe wskutek błędu użytkownika.
Natomiast w ramach uszkodzeń fizycznych samego nośnika możemy wyróżnić:
- uszkodzenie mechaniczne (dekalibracja mechaniczna, dekalibracja termiczna, uszkodzenie łożyska silnika, wybicie stojana silnika),
- uszkodzenie elektroniczne (uszkodzenie modułu elektroniki zewnętrznej, uszkodzenie głowicowego przedwzmacniacza sygnału),
- uszkodzenie logiczne lub mechaniczne struktury serwisowej dysku (Service Area).
Oczywiście wszystkie wymienione wyżej rodzaje uszkodzeń mogą występować samodzielnie lub jednocześnie; przy czym często występuje pomiędzy nimi implikacja przyczynowo-skutkowa. I tak, np. dekalibracja mechaniczna (np. dysk został uderzony) wpływa na uszkodzenia fizyczne części powierzchni roboczej dysku, przez co uszkodzony zostaje system plików (minimalne odkształcenia końcówek głowic mogą powodować rysowanie platerów dysku w obszarze konfiguracyjnym systemu plików).
Poniżej krótki opis objawów i okoliczności, które charakteryzują w sposób bezpośredni rodzaj usterki:
- działania wirusów, niedozwolone operacje na strukturach lub plikach systemu operacyjnego, błędne działanie lub niewłaściwe posługiwanie się narzędziami dyskowymi, pojawienie się błędnych sektorów na powierzchni dysku, błędna konfiguracja sprzętowa systemu operacyjnego, nagłe lub nieprawidłowe zamknięcie systemu operacyjnego, itp. - wszystkie tego typu czynności mogą wpłynąć na powstanie uszkodzeń systemu operacyjnego lub systemu plików.
- przypadkowe lub błędne usunięcie danych - tu sytuacja jest jasna.
- wszelkiego rodzaju anomalie napięciowe, mogące wystąpić, czyli: nagłe braki w dostawie prądu, przepięcia, zwarcia czy też wysadzenia lokalnej instalacji elektrycznej (bezpieczniki) skutkują najczęściej uszkodzeniem elektroniki komputera, a co za tym idzie elektroniki samego dysku. W tym miejscu należy zaznaczyć, że z tego punktu widzenia najbardziej krytycznym elementem w systemie jest zasilacz. Dobry zasilacz nie dopuści do uszkodzenia wewnętrznych komponentów komputera - w najgorszym razie sam ulegnie zniszczeniu, chroniąc jednocześnie pozostałe elementy. Słaby jakościowo zasilacz jest odpowiedzialny za ponad 90% przypadków awarii elektroniki twardych dysków.
- uderzenia i upadki - całych komputerów lub przenoszonych dysków - nawet niewinne, drobne puknięcia lub uderzenia mogą spowodować trwałe i poważne uszkodzenie mechaniczne twardego dysku (szczególnie podczas pracy nośnika). Dzieje się tak, ponieważ prawie wszystkie dzisiejsze dyski twarde (oprócz SSD) są urządzeniami złożonymi m.in. z wysoce precyzyjnej mechaniki, która jest bardzo wrażliwa na fizyczne działania zewnętrzne. Dochodzi wtedy do dekalibracji mechanicznej twardego dysku (zmiana geometrii końcówek pozycjonera z głowicami), nieprawidłowego zatrzymania głowic na platerach lub wybicia stojana silnika.
- przegrzanie twardego dysku - jeżeli twardy dysk, który pracuje przez dłuższy czas jest narażony na przegrzanie się (praca laptopa na miękkim kocu lub pościeli, umiejscowienie komputera przy kaloryferze, itp.) to dochodzi do mikroodkształceń termicznych na końcówkach głowic. Skutek - identyczny, jak w przypadku dekalibracji mechanicznej.
- wystąpienie uszkodzeń w obszarze serwisowym dysku (ang. Service Area, potocznie SA). Jest to wydzielony obszar na platerach (talerzach) dysku, niedostępny dla przeciętnego użytkownika (SA mieści się na logicznie ujemnych cylindrach), w którym znajduje się wewnętrzne mikroprogramowanie dzięki któremu możliwa jest sprawna praca dysku. Znajdują się tam takie informacje jak: translator logiczny, adaptywy, informacje na temat wielkości dysku, nazwa dysku, jego numer seryjny, hasło ATA, itp. Po podłączeniu zasilania główny procesor dysku zaczyna wykonywać procedury zawarte w swoim biosie. Większość z nich zawiera komendy odczytu wyżej wspomnianych danych mieszczących się w strefie serwisowej. Jeżeli wszystko jest w porządku, dysk zgłasza gotowość do pracy. Jeżeli nie ... No i tu zaczyna się problem... Wachlarz objawów uszkodzonego SA jest bardzo szeroki. Najczęstszymi objawami uszkodzenia SA jest błędna detekcja napędu w biosie komputera (nieprawidłowa lub niepełna nazwa dysku, nieprawidłowa pojemność, niewłaściwy numer seryjny), brak statusu ready nośnika, przy próbie skanu powierzchni nośnika wszystkie sektory są błędne, itp. Niestety w prawie wszystkich przypadkach uszkodzenia SA - aby dostać się do danych - wymagana jest spora wiedza na temat budowy i struktury SA w poszczególnych modelach oraz odpowiednie zaplecze techniczne i narzędziowe. Dlatego przy wystąpieniu objawów świadczących o uszkodzeniu SA stanowczo odradzamy podejmowanie jakichkolwiek samodzielnych prób.
Jakie najczęściej popełniamy błędy po utracie danych
Jeżeli już jednak się zdarzy, że z jakiejkolwiek przyczyny utracimy dostęp do danych i co gorsza nie posiadamy kopii nie należy załamywać rąk. W większości tego typu przypadków dane można odzyskać pod warunkiem przestrzeganiu kilku żelaznych zasad:
- nie należy wpadać w panikę - powoduje ona często, że zaczynamy wykonywać pewne
nieprzemyślane kroki, które niestety w większości przypadków znacznie utrudnią lub wręcz
uniemożliwią dotarcie do utraconych danych.
- należy zrobić rachunek zysków i strat - jeżeli dane są zbyt cenne abyśmy mogli pozwolić sobie
na ich utratę nie należy podejmować jakichkolwiek samodzielnych działań lub zlecać tej
pracy innym osobom tzw. "złotym rączkom" czy też domorosłym informatykom. Także
korzystanie z usług serwisów bądź sklepów komputerowych jest obarczone bardzo dużym
ryzykiem, ponieważ praktyka pokazuje, że większość z nich tak naprawdę nie ma nawet
podstawowej wiedzy z zakresu profesjonalnego odzyskiwania danych - wykonywane przez nich
działania są najczęściej prowadzone na ślep, na zasadzie: "a może się uda". Statystyki pokazują,
że działalność takich osób lub firm w prawie 70% przypadków doprowadza do nieodwracalnego
zniszczenia danych. W sytuacjach awaryjnych należy korzystać z usług firm które specjalizują się
w zakresie odzyskiwania danych i jest to ich jedyny profil działalności. Koszty odzyskania danych
będą oscylować w granicach od kilkuset do kilku tyś. PLN.
Pamiętajmy ! Jeżeli dojdzie do awarii nie wykonujmy pochopnie żadnych czynności ! Poniżej przedstawiamy kilka najczęściej występujących błędów, które popełniamy w wyniku paniki bądź braku należytej wiedzy. Dlatego należy pamiętać o kilku podstawowych zasadach:
- brak podstawowej wiedzy na temat tego co się stało i co może być źródłem awarii dyskwalifikuje
nas jako osobę, która może wykonać jakiekolwiek czynności związane z odzyskaniem danych
- podobnie jak powyżej - brak podstawowej wiedzy dotyczącej chociażby tego co nam wolno a
czego nie (w procesie data recovery) uniemożliwia nam podjęcie działań w tym zakresie.
- należy pamiętać, że jakakolwiek modyfikacja zawartości dysku może doprowadzić do
zniszczenia danych (prosty przykład: usunięcie danych, założenie nowej partycji lub format
dysku nie niszczą w sposób nieodwracalny (fizyczny) danych - dane zostają zniszczone dopiero
w procesie ich ponownego nadpisania),
- powyższa wskazówka jest skuteczna w przypadku utraty dostępu do danych z przyczyn
logicznych; w sytuacjach gdy występuje uszkodzenie mechaniczne nośnika lub uszkodzenie
strefy serwisowej w praktyce jesteśmy bezradni - nawet niewinne otwarcie dysku (oprócz
warunków laboratoryjnych) lub manipulacja w obszarze strefy serwisowej (bez odpowiedniej
wiedzy i narzędzi) w praktyce powoduje nieodwracalną utratę danych.
- w przypadku mechanicznego uszkodzenia dysku (brak detekcji w biosie, występujące
charakterystyczne stukanie) nie możemy dopuścić do uszkodzenia powierzchni platerów poprzez
uporczywe próby odczytu danych. Zdekalibrowane końcówki pozycjonera mogą to uczynić w
przeciągu nawet kilku minut.
- wielogodzinne lub nawet wielodniowe skanowanie ciężko uszkodzonych dysków często
doprowadza do ich definitywnego fizycznego lub logicznego uszkodzenia - szczególnie podczas
prób używania takich programów jak HDD Regenerator - programy narzędziowe tego typu
mogą być stosowane przy lekko uszkodzonych nośnikach,
- podobnie jak powyżej - w przypadku ciężkich uszkodzeń dysku - nie należy wykonywać
pełnego skanowania dysku narzędziami służącymi do odzyskiwania danych. Wielogodzinne próby
odzyskania danych z np. zdekalibrowanego bądź przegrzanego dysku mogą spowodować
fizyczne zniszczenie samego ferromagnetyka napylonego na platery, co w konsekwencji
doprowadzi do definitywnej utraty danych.
- niestety - jakiekolwiek uszkodzenia dysku - przez większość ludzi są kojarzone z uszkodzeniem
modułu elektroniki zewnętrznej. Nie ważne czy dysk upadł, czy zaczął rejestrować
nieresponsywne sektory bądź uszkodzeniu uległa logika dysku - bez względu na powyższe
objawy większość z nas uważa, że jedynym i skutecznym antidotum na dostanie się do danych jest
wymiana jego elektroniki. Dlatego pamiętajmy: eksperymentowanie z wymianą elektroniki dysku
jest procesem obarczonym dużym stopniem ryzyka - większość producentów nie podaje
kompletnych oznaczeń umożliwiających bezbłędną identyfikację dysku jeżeli chodzi o wersję
biosu czy też układ mapowania głowic w biosie lub układu głowic - natomiast zastosowanie
błędnej elektroniki może doprowadzić w krańcowych przypadkach do uszkodzenia struktury
serwisowej dysku bądź uszkodzenia elektroniki wewnętrznej dysku. Natomiast same statystyki
dotyczące występowania przypadków faktycznego uszkodzenia elektroniki zewnętrznej są w
świetle powyższego bezlitosne - zaledwie ok. 23-25 % na 100 zgłaszanych przypadków. Prawie
pewną wskazówką w takich przypadkach jest brak jakichkolwiek oznak życia dysku po podpięciu go do zasilania (dysku nie słychać, nie rozkręcają się platery, żadnych dźwięków bądź innych objawów...
Uwaga
Zarówno autor, jak i redakcja, nie ponoszą żadnej odpowiedzialności za jakiekolwiek szkody i straty powstałe w wyniku stosowanie się do wskazówek w niniejszym artykule. W momencie utraty dostępu do danych nie zaleca się samodzielnego wykonywania jakichkolwiek działań, w wyniku których może dojść do zagrożenia zdrowia bądź życia lub wystąpienia znacznych strat.
|
|