Big Data - Kilka słów o bezpieczeństwie

Ochrona dużych zbiorów danych wymaga inteligentnego egzekwowania reguł, dogłębnych analiz i wydajnych narzędzi. Kwestia bezpieczeństwa tzw. Big Data dzieli specjalistów ds. IT na dwie szkoły.

Pierwsza grupa kategorycznie zaprzecza, jakoby duże zbiory danych miały być traktowane w jakimkolwiek stopniu inaczej niż pozostała infrastruktura sieciowa. Druga szkoła skłania się natomiast w kierunku nadmiernego komplikowania rozwiązań ze względu na faktyczną (lub pozorną) wartość informacji w tych strukturach.

Duże zbiory danych są definiowane przez firmę Gartner jako zasoby informacyjne o dużym wolumenie, znacznej szybkości przepływu i/lub sporej różnorodności oraz wymagające nowych form przetwarzania, aby umożliwić sprawniejsze podejmowanie decyzji, wyciąganie wniosków i optymalizację procesów. Takie zbiory danych zwiększają również rutynowe wyzwania w dziedzinie bezpieczeństwa istniejących sieci transmisji danych.

Big Data - Kilka słów o bezpieczeństwie
DLP expert 2/2013
Big Data - Kilka słów o bezpieczeństwie

Oto zdefiniowane przez IDC (International Data Corporation) cztery aspekty dużych zbiorów danych, które generują zarówno wyzwania, jak i możliwości:

  • wolumen — ilość danych wzrasta z terabajtów do zettabajtów (1 zettabajt to 1021 bajtów, czyli 1 000 000 000 terabajtów) i jeszcze wyższych rzędów wielkości;

  • szybkość — tempo przepływu (napływu i wypływu) danych; mamy tu do czynienia już nie ze statycznym, jednorazowym zestawem informacji, ale z danymi napływającymi bez przerwy;

  • różnorodność — zakres typów i źródeł danych; dane mogą być w pełni lub w pewnym stopniu usystematyzowane, nieusystematyzowane lub nieprzetworzone;

  • wartość — istotność przetwarzanych danych.

Chociaż duże zbiory danych przynoszą nowe wyzwania w dziedzinie bezpieczeństwa, punkt wyjścia dla sprostania tym wyzwaniom jest taki sam jak w przypadku tworzenia każdej strategii ochrony danych: określenie poziomów poufności danych, wskazanie i sklasyfikowanie najbardziej tajnych informacji, podjęcie decyzji o lokalizacji danych o znaczeniu newralgicznym i stworzenie bezpiecznych modeli dostępu uwzględniających zarówno dane, jak i analizy.

Planowanie z uwzględnieniem cyklu życia dużych zbiorów danych

Właściwa ochrona dużych zbiorów danych wymaga zdefiniowania określonych wymagań w dziedzinie bezpieczeństwa w cyklu ich życia. Zwykle rozpoczyna się tu od zabezpieczenia samego zbioru danych, a następnie przechodzi do ochrony dostępu. Tak jak w przypadku większości reguł bezpieczeństwa, właściwa ocena czynników zagrażających dużym zbiorom danych nigdy się nie kończy i dotyczy przede wszystkim integralności danych w spoczynku oraz danych poddawanych analizom.

Kluczowym aspektem, który należy uwzględnić podczas zabezpieczania zgromadzonych danych i sieci, jest wydajność. Zapory i inne sieciowe urządzenia zabezpieczające, takie jak urządzenia szyfrujące, muszą cechować się na tyle wysoką wydajnością, aby móc obsłużyć rosnącą przepustowość sieci i liczbę połączeń oraz coraz większy ruch generowany przez aplikacje. W środowisku dużych zbiorów danych tworzenie i egzekwowanie reguł ma większe znaczenie niż zwykle, ponieważ większa jest ilość danych oraz liczba osób, które będą potrzebować dostępu do nich.

Sama ilość danych zwiększa również konieczność ochrony przed ich wyciekiem. Dlatego firmy muszą wdrażać technologie zapobiegania utraty danych, aby mieć pewność, że informacje nie trafią w niepowołane ręce. Konieczne jest też stosowanie wewnętrznych systemów wykrywania włamań i zapewnianie integralności danych, aby móc wychwytywać zaawansowane, ukierunkowane ataki, potrafiące obejść tradycyjne mechanizmy ochronne, takie jak np. wykrywanie anomalii w warstwach gromadzenia danych. Niezbędna jest przy tym krytyczna ocena danych w pakietach, strumieni danych, sesji i transakcji.

Duże zbiory danych obejmują informacje przechowywane na dużym obszarze i pochodzące z różnych źródeł, dlatego też firmy muszą być w stanie chronić dane niezależnie od miejsca, w którym się one znajdują. W wielu środowiskach dużych zbiorów danych stosowane są chmury publiczne, prywatne i hybrydowe — w ich kluczowych punktach należy wdrożyć wirtualne urządzenia oferujące pełną gamę funkcji ochronnych. Trzeba też bezpiecznie połączyć zasoby oraz odpowiednio zabezpieczyć dane przesyłane ze źródła do miejsca ich przechowywania (zwykle za pomocą tunelu IPSec).

Wykorzystanie dużych zbiorów danych za pomocą właściwych narzędzi

Duże zbiory danych to nie tylko wyzwania, ale także możliwości. Właściwe narzędzia umożliwiają analizowanie olbrzymich ilości informacji, co pozwala firmom zrozumieć i tworzyć wzorce typowych działań. Gdyby przedsiębiorstwa mogły potem monitorować użytkowników pod kątem zachowań odbiegających od wyznaczonych norm, byłyby w stanie zapobiec wyciekom danych i naruszeniom bezpieczeństwa swoich systemów. Starania te mogą być wspierane przez kompetentnych informatyków i sprawne wdrożenie odpowiednich narzędzi zabezpieczających. Narzędzia tego typu obejmują dedykowane urządzenia do rejestrowania informacji w dzienniku, analizowania ich i generowania raportów, które w bezpieczny sposób gromadzą dane z dzienników urządzeń zabezpieczających i innych urządzeń zgodnych z dziennikiem systemowym. Narzędzia te potrafią analizować, generować raporty i archiwizować zdarzenia w zakresie bezpieczeństwa, a także ruch sieciowy, treść internetową i dane przesyłane przez komunikatory. Na tej podstawie można kontrolować zgodność z regułami firmy i bez trudu tworzyć raporty dostosowane do własnych potrzeb. Trudność związana z szybkim wychwytywaniem, kontrolowaniem i przetwarzaniem informacji w środowiskach dużych zbiorów danych w dalszym ciągu sprawia, że wiele firm spycha kwestię bezpieczeństwa na dalszy plan. Jednak wraz ze wzrostem dostępności przenośnych pamięci i przepustowości sieci wzrastać będzie także mobilność większych zbiorów danych, co nieuchronnie doprowadzi do przypadków naruszenia ich bezpieczeństwa i wycieków poufnych informacji. Zagrożenia będą zapewne pochodzić ze strony osób manipulujących danymi tak, aby narzędzia do analizy danych biznesowych generowały fałszywe wyniki i skłaniały kierownictwo firm do decyzji mogących przynieść korzyści intruzom.

Big Data - Kilka słów o bezpieczeństwie
DLP expert 2/2013,
Big Data - Kilka słów o bezpieczeństwie

Nawet niewielkie zmiany w dużych zbiorach danych mogą mieć olbrzymi wpływ na wyniki. Firmom nie wolno więc lekceważyć ochrony tych zasobów informacyjnych — nie tylko ze względów bezpieczeństwa, ale także z uwagi na poprawność analiz danych biznesowych. Przedsiębiorstwa muszą zadbać o najważniejsze kwestie związane z dużymi zbiorami danych, takie jak uwierzytelnianie, autoryzacja, kontrola dostępu w oparciu o role, audyt, monitorowanie oraz tworzenie kopii zapasowych i odtwarzanie.

W przyszłości analizy dużych zbiorów danych obejmujące tworzenie wzorców i monitorowanie zachowań, będą odgrywać coraz istotniejszą rolę w pokonywaniu nowej generacji wyzwań w dziedzinie ochrony informacji.

Autorem tekstu jest Robert Dąbrowski, inżynier systemowy Fortinet

DLP expert magazyn
DLP expert 2/2013

Tekst pochodzi z magazynu DLP expert 2/2013 (5)- który bezpłatnie można pobrać ze strony: https://www.dlp-expert.pl/magazine

Źródło: Redakcja