Sprzedajesz komputer z dyskiem?...usuń skutecznie dane!
#1
Rynek wtórny komputerów ma się całkiem dobrze...sam jestem zainteresowany kupnem takiego, a w domu mam już dwa tego typu...i dlatego wrzucam krótki cytat poniżej. Niech te informacje będą przestrogą dla wszystkich sprzedających swoje urządzenia Smile

Cytat:Sprzedaż starego dysku twardego w serwisie eBay lub jakimkolwiek innym może wydawać się dobrym sposobem na wyciśnięcie paru groszy z nieużywanego sprzętu. Połączony zespół ekspertów zajmujących się odzyskiwaniem danych z Blanco i Ontrack przeprowadził testy 159 dysków zakupionych w serwisie eBay. Oto ich wyniki: 42% zawierało poufne dane, które stały się dostępne po zastosowaniu odpowiednich technologii odzyskiwania, a 15% zawierało informacje umożliwiające identyfikację osobową (PII), która mogła być wykorzystana ze szkodą dla poprzedniego właściciela.
(...)
Trzy dyski z dwudziestu zawierały informacje PII mimo zapewnień sprzedających o wyczyszczeniu sprzętu przed wysyłką. Dostawcy badanego sprzętu zostali wybrani losowo, choć zespół skupił się na „przodujących markach” – zapewne jako najbardziej reprezentatywnych dla rynku.
Wyniki badań uzasadniają poważną obawę, że podczas gdy sprzedający wyraźnie rozumieją potrzebę usuwania danych, to w praktyce korzystają z nieodpowiednich metod.

Ostatni fragment podkreśliłem celowo, żeby wzbudzić w czytających nieco rezerwy i braku zaufania do firm, którym zlecamy "fachowe" zajęcie się sprzętem przeznaczonym do dalszej odsprzedaży.

Info źródłowe

[Aby zobaczyć linki, zarejestruj się tutaj]

"Bezpieczeństwo jest podróżą, a nie celem samym w sobie - to nie jest problem, który można rozwiązać raz na zawsze"
"Zaufanie nie stanowi kontroli, a nadzieja nie jest strategią"
Odpowiedz
#2
Jak gdzieś czytam, że na obecnych dyskach HDD i SSD trzeba nadpisywać 3 razy lub więcej to przestaję czytać...

Na SSD warto od początku szyfrować dane, by móc potem sprzedać dysk. Mikrokontroler ciągle zmienia położenie na nim zawartych i mogą się znaleźć w przestrzeniu niewidzialnej przez systemy operacyjne. Trzeba by się dostać do niej przez

[Aby zobaczyć linki, zarejestruj się tutaj]

, by mieć pewność nadpisania tych danych. Lepiej pomyśleć zawczasu i zaszyfrować.
Odpowiedz
#3
Ile w tej grupie znalazły się dyski, gdzie przez czyszczenie rozumiano zwykły format c:?
Odpowiedz
#4
Dla twardzieli SSD teoretycznie zastosowanie procedury SecureErase powinno wystarczyć by posłać dane do bitowego nieba

[Aby zobaczyć linki, zarejestruj się tutaj]

[Aby zobaczyć linki, zarejestruj się tutaj]

[Aby zobaczyć linki, zarejestruj się tutaj]

dla paranoików polecam DBAN

[Aby zobaczyć linki, zarejestruj się tutaj]

Odpowiedz
#5
(17.05.2019, 19:57)Fix00ser napisał(a):

[Aby zobaczyć linki, zarejestruj się tutaj]

Dla twardzieli SSD teoretycznie zastosowanie procedury SecureErase powinno wystarczyć by posłać dane do bitowego nieba

[Aby zobaczyć linki, zarejestruj się tutaj]

[Aby zobaczyć linki, zarejestruj się tutaj]

[Aby zobaczyć linki, zarejestruj się tutaj]

dla paranoików polecam DBAN

[Aby zobaczyć linki, zarejestruj się tutaj]


DBAN raczej nie jest dla paranoików, bo przecież nie usunie danych z niewidocznych dla OSa przestrzeni dysków SSD.
Odpowiedz
#6
Ups, sprostowanie pisząc o DBAN miałem na myśli talerzowce, moje niedopatrzenie że tego info nie zamieściłem.
Odpowiedz
#7
Dobra, ale...

Widziałem na innym forum kłótnię ludzi doświadczonych, którzy spierali się o to, czy to tak na prawdę jest potrzebne. Głównie chodzi o to, że przy obecnej gęstości upchnięcia danych na HDD, powinien wystarczyć format z nadpisaniem zerami, i tak nadpisane dane powinny być, bez wielkich nakładów finansowych, nie do odzyskania.
Pomijam technologię rodem z Jamesa Bonda, nikt z nas nie jest (chyba) tak ważny, żeby jego dyski opłacało się wysyłać do profesjonalnego Labu.
To jak to jest?
Człowiek, któremu zazdroszczą najlepszych pomysłów na sygnatury...
Odpowiedz
#8
Każdy swoje dane traktuje indywidualnie, jednym zależy by nikt raczej nie miał wglądu do tych danych a innym nie.
Moje podejście jest takie że nośniki które mam na zbyciu zawsze staram się czyścić, natomiast sporo których używam jest szyfrowanych.
Wielokrotnie zdarzało mi się montować w PC/laptopach używane twardziele tylko po formatowaniu, i muszę stwierdzić że przywrócenie ich wcześniejszej zawartości to kilka minut dla
standardowych procedur typu rescue, oczywiście są to przypadki dotyczące talerzowców.
Odpowiedz
#9
(18.05.2019, 13:01)M\cin napisał(a):

[Aby zobaczyć linki, zarejestruj się tutaj]

Dobra, ale...

Widziałem na innym forum kłótnię ludzi doświadczonych, którzy spierali się o to, czy to tak na prawdę jest potrzebne. Głównie chodzi o to, że przy obecnej gęstości upchnięcia danych na HDD, powinien wystarczyć format z nadpisaniem zerami, i tak nadpisane dane powinny być, bez wielkich nakładów finansowych, nie do odzyskania.
Pomijam technologię rodem z Jamesa Bonda, nikt z nas nie jest (chyba) tak ważny, żeby jego dyski opłacało się wysyłać do profesjonalnego Labu.
To jak to jest?
Zgodzę się, że format z nadpisywaniem zerami byłby dobrym rozwiązaniem, problem w tym, że MS nie oferuje takiej funkcji.
Odpowiedz
#10
(23.05.2019, 12:40)wredniak napisał(a):

[Aby zobaczyć linki, zarejestruj się tutaj]

(18.05.2019, 13:01)M\cin napisał(a):

[Aby zobaczyć linki, zarejestruj się tutaj]

Dobra, ale...

Widziałem na innym forum kłótnię ludzi doświadczonych, którzy spierali się o to, czy to tak na prawdę jest potrzebne. Głównie chodzi o to, że przy obecnej gęstości upchnięcia danych na HDD, powinien wystarczyć format z nadpisaniem zerami, i tak nadpisane dane powinny być, bez wielkich nakładów finansowych, nie do odzyskania.
Pomijam technologię rodem z Jamesa Bonda, nikt z nas nie jest (chyba) tak ważny, żeby jego dyski opłacało się wysyłać do profesjonalnego Labu.
To jak to jest?
Zgodzę się, że format z nadpisywaniem zerami byłby dobrym rozwiązaniem, problem w tym, że MS nie oferuje takiej funkcji.
Komenda format ze switchem "/p".
Odpowiedz
#11
(23.05.2019, 14:01)bluszcz napisał(a):

[Aby zobaczyć linki, zarejestruj się tutaj]

Komenda format ze switchem "/p".
Właśnie. Nie chodzi mi o zwykły "format" bez przełącznika, bo wiem, że to nic nie da Smile
Człowiek, któremu zazdroszczą najlepszych pomysłów na sygnatury...
Odpowiedz
#12
Polecam low level format

[Aby zobaczyć linki, zarejestruj się tutaj]

kosztuje 3$ (zwalnia limit prędkości), ewentualnie CCleaner ma możliwość nadpisania dysku do 70-razy, szczerze nigdy nie robiłem powyżej 7, bo kto normalny da dysk do laboratorium po odkupieniu go z allegro.

P.S
Swojego dysku w sumie nigdy nie sprzedałem, młotek i wiertarka po talerzach Grin
Odpowiedz
#13
(18.05.2019, 13:01)M'cin napisał(a):

[Aby zobaczyć linki, zarejestruj się tutaj]

Dobra, ale...

Widziałem na innym forum kłótnię ludzi doświadczonych, którzy spierali się o to, czy to tak na prawdę jest potrzebne. Głównie chodzi o to, że przy obecnej gęstości upchnięcia danych na HDD, powinien wystarczyć format z nadpisaniem zerami, i tak nadpisane dane powinny być, bez wielkich nakładów finansowych, nie do odzyskania.
Pomijam technologię rodem z Jamesa Bonda, nikt z nas nie jest (chyba) tak ważny, żeby jego dyski opłacało się wysyłać do profesjonalnego Labu.
To jak to jest?

Doświadczonych w czym? Pracowali na merytorycznych stanowiskach u producentów dysków twardych albo codziennie badali materiały z użyciem mikroskopu elektronowego?

[Aby zobaczyć linki, zarejestruj się tutaj]

Opinie ekspertów są takie, że zwykłe laboratoria, a być może nawet żadne laboratoria, nie są w stanie odczytać więcej niż pojedynczych bitów z obecnych dysków HDD po jednokrotnym nadpisaniu. Czyli np jeśli jakaś kobieta zamordowała męża i przeciwko niej jest prowadzona zwykła sprawa w sądzie*, to jeśli jednokrotnie nadpisała dysk HDD z dowodami przeciwko niej to nie musi się obawiać, że policja wyciągnie z nadpisanych sektorów dane. Ale znów - nawet na HDD jest odrobinę przestrzeni zapasowej i mechanizmy remapowania. Sam teraz chcę zainstalować na starym HDD Windows 10 i wywołuję remapowanie na znalezionych bad sectorach, ale to już nie jest problem związany z nadpisywaniem.

*Dla pewności dodam, że w przypadku spraw niezwykłych np ktoś by poważnie zagrażał bezpieczeństwu narodowemu USA to kto wie, może mają jakieś ultra-nowoczesne laboratorium, które odczyta kilka bajtów, a to może pozwolić z dużym prawdopodobieństwem określić czy na dysku były tajne materiały USA (tylko musi być materiał porównawczy).
Odpowiedz
#14
Dla zainteresowanych tematyką forensics/rescue/recovery polecam bazową pozycję do wglądu
Kod:
http://www.campus64.com/digital_learning/data/cyber_forensics_essentials/info_file_system_forensic_analysis.pdf
z literatury tłumaczonej jako uzupełnienie proponuję zapoznać się z tytułami
Harlan Carvey - Informatyka Śledcza (Helion 2011) oraz Analiza Śledcza i Powłamaniowa
kilka dodatkowych informacji o danych na przemiał

[Aby zobaczyć linki, zarejestruj się tutaj]

Odpowiedz
#15
Wystarczy trzymać pliki w zaszyfrowanym kontenerze(m.in VeraCrypt) odzyskiwanie pare % z zaszyfrowanego dysku jest niemal niemożliwe do odzyskania a tym bardzie do otworzenia.
Warstwy ochrony

1)Ograniczenie/blokowanie dostępu do danych/aplikacji
2)Odizolowanie i tworzenie osobnych baz danych/aplikacji
3)Kopia zapasowa systemu/ważnych danych.
4)Wykrywanie i kasowanie wirusów/złośliwych aplikacji.
Odpowiedz
#16
(25.05.2019, 12:00)bluszcz napisał(a):

[Aby zobaczyć linki, zarejestruj się tutaj]

Doświadczonych w czym? Pracowali na merytorycznych stanowiskach u producentów dysków twardych albo codziennie badali materiały z użyciem mikroskopu elektronowego?
Administratorzy IT/progrramiści. Nie pytałem ich o ścieżkę zawodową, ale Ich rozmowy o OS/2 czy Windowsie Nt były wystarczająco wiarygodne.
(25.05.2019, 12:00)bluszcz napisał(a):

[Aby zobaczyć linki, zarejestruj się tutaj]

Opinie ekspertów są takie, że zwykłe laboratoria, a być może nawet żadne laboratoria, nie są w stanie odczytać więcej niż pojedynczych bitów z obecnych dysków HDD po jednokrotnym nadpisaniu.
Właśnie to samo pisali Smile
Człowiek, któremu zazdroszczą najlepszych pomysłów na sygnatury...
Odpowiedz
#17
1/ skuteczność nadpisywania danych nie zależy od marki nośnika danych. Fizyka zapisu danych jest taka sama dla wszystkich producentów. Interesować nas powinny zastosowane technologie i szczegółowe rozwiązania, a nie napisy na naklejce.
2/ w SSD dane znajdujące się poza adresacją LBA czyści TRIM. Tę funkcję obsługują i wszystkie współczesne SSDki i wszystkie współczesne systemy plików. To dlatego skasowane pliki po upływie góra kilku minut od ich usunięcia są nieodzyskiwalne nawet pracując w adresacji fizycznej.
3/ żeby mieć pewność skasowania wszystkich fizycznych bloków w SSDkach lepiej zamiast programów nadpisujących pracujących w adresacji LBA użyć procedur Secure Erase lub Block Erase.
4/ skuteczność nadpisywania danych nie jest wprost powiązana z gęstością zapisu. Ryzyko niedokładnego prowadzenia głowicy nad ścieżką występowało w dyskach wykorzystujących do pozycjonowania głowic silniki krokowe. Silniki liniowe pozwalają na bezstopniową regulację położenia głowic nad ścieżką i dzięki informacji serwo potrafią bardzo dokładnie trzymać je nad środkiem ścieżki. Tak, dyski z silnikami krokowymi miały niższą gęstość zapisu, ale to bardziej konsekwencja zastosowanego rozwiązania technicznego do pozycjonowania głowic.
5/ - nie ma laboratoriów rodem z Jamesa Bonda. Jest fizyka. I jest ona nieprzekupna. Jeśli używamy skutecznej metody niszczenia danych, są one nieodzyskiwalne bez względu na to, ile chcemy za to zapłacić. Nadpisanie jest skuteczną metodą zniszczenia danych, bo zmienia stan fizyczny nośnika będący podstawą interpretacji jako stan logiczny (dane).
6/ - nadpisywanie zerami jest obarczone ryzykiem w dyskach SMR. One też często obsługują funkcję TRIM, ale w nośnikach magnetycznych, w odróżnieniu od półprzewodnikowych, nie ma operacji kasowania, a więc dane mogą sobie leżeć w adresacji fizycznej, dopóki nie zostaną nadpisane inną zawartością. Dlatego tu też sugeruję raczej Secure Erase, które posprząta w adresacji fizycznej, aniżeli programy pracujące w adresacji LBA.
7/ - darmowe programy nadpisujące są równie skuteczne, jak i płatne. Korzystają z dokładnie tej samej metody niszczenia danych. Dane są bezpowrotnie niszczone już w pierwszym przebiegu nadpisania. Każdy kolejny jest stratą czasu i prądu. Jeśli chcemy naprawdę zadbać o bezpieczeństwo nadpisywania, powinniśmy skupić się na tym, by nie pominąć żadnych fizycznych jednostek alokacji, a nie na jałowym powtarzaniu nadpisywania tych samych obszarów kolejnymi przebiegami.
8/ - młotek nie jest skuteczną metodą niszczenia danych, a jedynie uszkodzenia dysku. Z dysków pobitych młotkiem wielokrotnie odzyskiwałem dane. Z przewierconych parę razy też. Nie każdy artysta trafił wiertłem w talerz. Jeśli talerz można wprowadzić w ruch obrotowy, odzyskanie z niego danych, to w dużym stopniu kwestia zamontowania go do sprawnej mechaniki. Jeśli nie - to nie oznacza jeszcze, że danych nie da się odzyskać, ale to już nie temat na usługę komercyjną, a na projekt naukowy. Nawet ze ścinków ze zmielarki da się odzyskiwać kilkunastokilobajtowe porcje danych, choć w praktyce nikt tego nie robi. Sama potwierdzona eksperymentalnie możliwość odzyskania danych z fragmentów talerzy jest wystarczająca, by metod mechanicznych nie traktować jako metod skutecznych.
9/ - mało się o tym mówi, ale także w przypadku uszkodzonych mechanicznie układów flashowych istnieje możliwość obrazowania potencjałów elektrycznych mikroskopem elektronowym, co otwiera drogę do dalszych analiz i odzyskiwania danych,
10 - nie należy też ufać metodom indukcyjnym i wykorzystującym różnego rodzaju promieniowanie. Także i one potrafią uszkodzić nośnik bez zniszczenia wszystkich danych. Niepublikowane niezależne badania pokazują, że tego typu metody uszkadzają zaledwie kilkanaście % układów NANDowych, pozostawiając spore możliwości częściowego odzyskania danych, przy czym uszkodzony nośnik daje złudne poczucie bezpieczeństwa.
11/ - skuteczność niszczenia danych nie zależy od samej zawartości danych. Jeśli używamy skutecznej metody niszczenia danych, dane zostaną zniszczone bez względu na to, czy to baza danych medycznych, dokumenty finansowe, tajemnice rządu Stanów Zjednoczonych, czy zdjęcie kotka.
12/ - nie ma czegoś takiego, jak odzyskiwanie pojedynczych bitów, czy bajtów. Nośniki danych są urządzeniami blokowymi. Operują na większych porcjach danych (sektorach w przypadku dysków twardych i stronach oraz blokach w przypadku nośników NANDowych). Nie jesteśmy w stanie adresować, ani interpretować pojedynczych bitów, czy bajtów, tym bardziej, że dane są kodowane i to, co możemy odzyskać "na surowo" pracując fizycznie na nośniku, wymaga jeszcze odpowiedniego zdekodowania.
13/ - szyfrowanie też nie daje nam gwarancji ochrony danych. Zadanie wprawdzie jest bardzo złożone, ale matematycznie jest rozwiązywalne.
14/ - nie trzeba codziennie siedzieć nad mikroskopem elektronowym. Badania w tym kierunku były prowadzone już ponad 30 lat temu i ok. 10 lat temu zostały zarzucone. Ich wyniki były publikowane i po zapoznaniu się z nimi łatwo zrozumieć, dlaczego te prace zostały zarzucone. Ale podejście z mikroskopem elektronowym (właściwie mikroskopem sił atomowych, przy czym mogą to być siły magnetyczne, elektryczne itd.) nie jest jedyną drogą, jaką można analizować fizyczny stan nośników danych. Poza tym dużym problemem osób siedzących nad nośnikami z mikroskopami elektronowymi było niedostateczne zrozumienie procesów kodowania danych i przetwarzania sygnałów, co stało się przyczyną wyciągnięcia pochopnych wniosków i rozbudzenia złudnych nadziei.
15/ - to, że ktoś jest znakomitym adminem, czy programistą, jeszcze nie znaczy, że zna się na nośnikach danych. Czasem można usłyszeć dużo śmiesznych rzeczy od ludzi, którzy zbyt lekko i ze zbyt dużą pewnością siebie wychodzą poza swój obszar specjalizacjiWink
Odpowiedz
#18
@Kaleron do pkt 13 jednak mam zastrzeżenia. Jest wiele ogólnodostępnych algorytmów szyfrowania symetrycznego będących naprawdę "silnych". Matematyczna możliwość kompletnie tutaj rozmija się z praktyczną możliwością.
Największym problemem oczywiście pozostaje przechowywanie haseł i ewentualnie nagłówków potrzebnych do rozszyfrowania reszty danych.
Osobiście uważam, że dobrze byłoby mieć jakąś procedurę szybkiego pozbycia się kopii takich nagłówków i haseł w razie "W". Pozbycie się nagłówków przez kasowanie/nadpisanie małego fragmentu dysku w praktyce blokowałoby komukolwiek dostęp do całej reszty danych na dysku. To może przyspieszyć procedurę awaryjnego kasowania danych. Kiedyś ludzie się śmieli po co i dlaczego w ogóle coś takiego mieć. Teraz mamy wojnę za wschodnią granicą i trochę łatwiej im wyobrazić sobie taką sytuację.
Odpowiedz
#19
przeciętne metody szyfrowania np za pomocą veracrypt wystarczająco zabezpieczą dane.
Szczególnie gdy kasowanie dane mogą zostać nadpisane nawet w części sprawi że odzyskanie pliku stanie sie nie możliwe bo będzie wymagany cały ciąg algorytmu, co cholernie utrudni sprawę.
Kolejna sprawa szyfrowanie w zależności od algorytmu lub stosowaniu wielu algorytmów powiększa objętość pliku w skutego czego więcej bloków będzie wymagana do odtworzenia co jeszcze bardziej komplikuje sytuacje.
Jak są wątpliwości to wystarczy zerknąć na fora gdzie użytkownicy tracą dane nawet mając własne hasło i kopie klucza i nagłówka twórcy rozkładają ręce Grin
Warstwy ochrony

1)Ograniczenie/blokowanie dostępu do danych/aplikacji
2)Odizolowanie i tworzenie osobnych baz danych/aplikacji
3)Kopia zapasowa systemu/ważnych danych.
4)Wykrywanie i kasowanie wirusów/złośliwych aplikacji.
Odpowiedz
#20
Jedyne co mnie obecnie martwi w szyfrowanych dyskach to niemożność ich odszyfrowania na innej maszynie np: po awarii płyty głównej i konieczności jej wymiany.
Zapewne istnieją metody na zabezpieczenie klucza szyfrowania, ale skąd mam pewność, że nośnik z tym kluczem też mi nie padnie ...
Odpowiedz


Skocz do:


Użytkownicy przeglądający ten wątek: 1 gości