Wyobraźmy sobie scenariusz, który dla wielu menedżerów IT stał się rzeczywistością: jest środek nocy, a systemy alarmowe sygnalizują krytyczny incydent. Wszystkie serwery firmowe zostały zaszyfrowane, a na ekranach widnieje tylko jedno – żądanie okupu.
To nie jest fragment filmu, ale realne zagrożenie, które według danych kosztuje firmy średnio 4,88 miliona dolarów za każdy incydent, a w ubiegłym roku dotknęło aż 75% przedsiębiorstw na świecie.
W czasach, w których ransomware stało się wszechobecne, posiadanie jakiejkolwiek kopii zapasowej przestało być wystarczającym zabezpieczeniem. Różnica między szybkim odzyskaniem sprawności operacyjnej a katastrofą paraliżującą biznes tkwi w dojrzałej i świadomej strategii ochrony danych.
Kluczem nie jest samo tworzenie backupu, ale jego inteligentna architektura.
Fundamentem każdej takiej strategii są dwa wskaźniki: RPO (Recovery Point Objective) i RTO (Recovery Time Objective). RPO określa maksymalny, akceptowalny poziom utraty danych, mierzony w czasie. jeżeli firma tworzy kopie co godzinę, jej RPO wynosi 60 minut – tyle najnowszych danych może bezpowrotnie stracić.
Z kolei RTO definiuje, jak gwałtownie systemy muszą wrócić do pełnej sprawności po awarii. Te dwa parametry stanowią biznesowy kompas, który wyznacza kierunek dla decyzji technologicznych, od częstotliwości backupu po rodzaj wykorzystywanych nośników.
Wybór technologii jest bezpośrednią konsekwencją przyjętych celów. Pełna kopia zapasowa, choć najprostsza do odtworzenia, jest zasobochłonna i w przypadku dużych wolumenów danych znacząco wydłuża czas przywracania. Dlatego firmy często sięgają po rozwiązania bardziej efektywne.
Backup przyrostowy zapisuje tylko te dane, które zmieniły się od ostatniej dowolnej kopii, co oszczędza miejsce i czas, ale komplikuje proces odtwarzania. Kompromis stanowi backup różnicowy, który kopiuje wszystkie zmiany od ostatniej pełnej kopii, oferując zbalansowane podejście między szybkością tworzenia a łatwością odzyskiwania danych.
Równie istotny jest wybór miejsca przechowywania kopii. Rozwiązania lokalne, takie jak zewnętrzne dyski twarde czy systemy NAS, sprawdzają się w mniejszych organizacjach, ale są podatne na zagrożenia fizyczne i często nie oferują wystarczającej skalowalności.
Chmura publiczna zrewolucjonizowała rynek, dając niemal nieograniczoną przestrzeń i geograficzne rozproszenie danych, co jest najważniejsze w strategii Disaster Recovery. Mimo to, dla celów długoterminowej i taniej archiwizacji danych zgodnej z regulacjami prawnymi, wciąż swoje miejsce znajdują nośniki taśmowe.
Jednak choćby najlepsza kombinacja powyższych metod może okazać się bezużyteczna, gdy zaawansowane oprogramowanie ransomware najpierw zainfekuje i zaszyfruje systemy produkcyjne, a następnie zniszczy lub zaszyfruje podłączone do nich repozytoria kopii zapasowych. To właśnie ten wektor ataku sprawia, iż na znaczeniu zyskuje koncepcja niezmienności (immutability).
Niezmienne kopie zapasowe, działające w modelu WORM (Write-Once-Read-Many), po zapisaniu nie mogą być w żaden sposób zmodyfikowane ani usunięte przed upływem zdefiniowanego czasu.
Nawet jeżeli atakujący zdobędą pełne uprawnienia administratora w całej infrastrukturze, nie będą w stanie naruszyć integralności takiego backupu. To tworzy ostatnią, pewną linię obrony, gwarantując, iż firma zawsze będzie dysponowała czystą, nienaruszoną kopią danych gotową do odtworzenia.
Wprowadzenie mechanizmów niezmienności do strategii backupowej przestaje być opcją, a staje się koniecznością. Na rynku dostępne są już wyspecjalizowane urządzenia i rozwiązania chmurowe, które oferują tę funkcjonalność w przystępny sposób, minimalizując złożoność wdrożenia.
Wobec rosnącej fali cyberataków inwestycja w strategię, która nie tylko tworzy kopie, ale także gwarantuje ich nietykalność, jest jedną z najważniejszych decyzji, jakie może podjąć współczesna organizacja.