Skip to main content

Skontaktuj się z nami: 790 245 015 | biuro@nextlvl.it

Autor: admin

Projekt cyberbezpieczeństwa w jednostce administracji – pełna zgodność z wymogami KSC/NIS2

Jednostki administracji coraz częściej patrzą na cyberbezpieczeństwo jak na usługę krytyczną. Z jednej strony stoją wymogi KSC i NIS2, z drugiej realne ryzyka: przestoje systemów, incydenty i odpowiedzialność kierownictwa. Dlatego projekt zgodności nie może kończyć się na segregatorze procedur. Powinien zmienić sposób działania organizacji: od codziennej pracy użytkowników, po planowanie przetargów i raportowanie incydentów. Ten wpis pokazuje, jak przeprowadzamy taki projekt – tak, aby spełnić wymagania KSC/NIS2, a jednocześnie podnieść odporność na ataki.

Cel projektu: mierzalna zgodność i odporność

Na starcie definiujemy cel w dwóch wymiarach. Pierwszy to zgodność formalna z KSC/NIS2, czyli komplet polityk, rejestrów i dowodów działania procesów. Drugi to odporność operacyjna, którą widać w praktyce: krótszy czas wykrycia i reakcji, lepsze pokrycie MFA, regularne łatki oraz realne testy odtwarzania. Dzięki temu audyt staje się formalnością, a infrastruktura zyskuje przewidywalność.

Punkt wyjścia: diagnoza stanu i ryzyk

Projekt zaczyna się od rozpoznania. Inwentaryzujemy usługi, systemy i dane, a także mapujemy zależności między IT a procesami urzędu. Analizujemy ryzyka, biorąc pod uwagę dostępność, integralność i poufność, ale również wpływ na ciągłość realizacji zadań publicznych. Weryfikujemy łańcuch dostaw i umowy serwisowe oraz sprawdzamy, czy poziom zabezpieczeń odpowiada znaczeniu danej usługi. Ten etap daje jasność, co trzeba poprawić w pierwszej kolejności.

Projekt docelowy: governance + technologia

Sercem wdrożenia jest system zarządzania bezpieczeństwem. Tworzymy spójny zestaw dokumentów i praktyk: Politykę Bezpieczeństwa, zasady klasyfikacji informacji, procedury zarządzania incydentem, zmianą i podatnościami, a także rejestry ryzyk i środków kontroli. Równolegle porządkujemy odpowiedzialności – właścicieli usług, role w Zespole Reagowania oraz ścieżki eskalacji. Governance nie jest „na półkę”. Ma wspierać codzienne decyzje i ułatwiać audyt.

Po stronie technologicznej budujemy kilka filarów. Tożsamość i dostęp zabezpieczamy przez MFA, zasady haseł oraz PAM dla kont uprzywilejowanych. Sieć dzielimy logicznie, aby ograniczyć lateral movement, a dostęp zdalny realizujemy przez ZTNA lub bezpieczny VPN z kontrolą urządzeń. Stacje robocze i serwery otrzymują EDR/antywirus nowej generacji, a polityki twardnienia eliminują domyślne luki. Kluczowe dzienniki gromadzimy w SIEM, który zasila SOC – dzięki temu incydenty są wykrywane i obsługiwane zgodnie z procedurą.

Reakcja na incydent i ciągłość działania

Zgodność z KSC/NIS2 wymaga gotowości na incydenty. Przygotowujemy IRP (Incident Response Plan) z jasnym podziałem ról, kontaktami i wzorami komunikatów. Każdy scenariusz ma runbook – od phishingu i ransomware, po awarię usług katalogowych. Aby utrzymać działanie urzędu, dopracowujemy BCP/DRP i weryfikujemy je w testach. Kopie zapasowe realizujemy zgodnie z zasadą 3-2-1-1-0, w tym z repozytorium niezmienialnym. Dzięki temu odtworzenie systemów jest przewidywalne, a raport z testu staje się dowodem zgodności.

Łańcuch dostaw i przetargi

NIS2 kładzie nacisk na bezpieczeństwo dostawców. W praktyce oznacza to wymagania w SIWZ/OPZ opisane funkcjonalnie, a nie markowo, oraz kontrolę minimalnych standardów u wykonawców. Wprowadzamy due diligence dostawców, kryteria oceny ryzyka i zapisy o zgłaszaniu incydentów oraz audytowalności usług. Dzięki temu bezpieczeństwo nie kończy się na ścianie serwerowni – obejmuje także systemy zewnętrzne i utrzymanie.

Szkolenia i świadomość użytkowników

Ludzie pozostają najsilniejszym i najsłabszym ogniwem. Program szkoleniowy tworzymy tak, aby był krótki, aktualny i cykliczny. Ćwiczenia z rozpoznawania phishingu, zasady korzystania z danych oraz procedury zgłaszania incydentów stają się elementem onboardingu i corocznego odświeżenia. Dzięki temu bezpieczeństwo przestaje być dodatkiem – staje się nawykiem.

Raportowanie i wskaźniki zgodności

Zgodność wymaga dowodów. Dlatego ustalamy mierniki, które są proste i czytelne. Najczęściej są to: czas wykrycia (MTTD), czas reakcji (MTTR), procent zasobów objętych EDR, pokrycie MFA, terminowość łatek, liczba testów DR oraz skuteczność kampanii phishingowych. Raporty miesięczne pokazują postęp, a kwartalne przeglądy ryzyka pozwalają korygować kurs.

Mapowanie na wymagania KSC/NIS2

Każdy obszar projektu łączymy z konkretnymi wymogami. Polityki i role odpowiadają za zarządzanie ryzykiem i odpowiedzialności. SIEM/SOC oraz procedury IR zapewniają wykrywanie, zgłaszanie i obsługę incydentów. BCP/DRP i kopie niezmienialne realizują wymogi ciągłości i odtwarzalności. Segmentacja, MFA i PAM wspierają kontrolę dostępu i minimalizację skutków naruszeń. Z kolei nadzór nad dostawcami zabezpiecza łańcuch dostaw. To mapowanie trafia do rejestru zgodności i stanowi podstawę audytu.

Harmonogram: szybkie fundamenty, trwałe efekty

Projekt dzielimy na czytelne etapy. W pierwszych tygodniach powstaje diagnoza, plan remediacji i minimalny zestaw zabezpieczeń (MFA, rejestry, zasady haseł, pierwsze reguły w SIEM). Następnie wdrażamy segmentację, EDR i procedury IR, a SIEM zaczyna karmić SOC wartościowymi alertami. Kolejne miesiące przynoszą testy DR, porządek w łańcuchu dostaw i doszlifowanie dokumentacji. Po zakończeniu etapów organizacja ma nie tylko status „zgodna”, lecz także kompetencje, aby tę zgodność utrzymać.

Efekty: audyt bez niespodzianek i realne bezpieczeństwo

Po wdrożeniu jednostka zyskuje spójny system, który wspiera decyzje i codzienną pracę. Audyt ma komplet dowodów, a procesy reagowania są przećwiczone. Liczba incydentów krytycznych maleje, a czas ich obsługi się skraca. Przetargi stają się łatwiejsze, bo wymagania bezpieczeństwa są standardem, a nie dodatkiem. To właśnie oznacza pełną zgodność z KSC/NIS2 – nie tylko na papierze, ale przede wszystkim w działaniu.

Podsumowanie: zgodność, która się opłaca

Dobrze zaprojektowany projekt cyberbezpieczeństwa porządkuje odpowiedzialności, upraszcza technologię i ułatwia audyt. Co ważne, redukuje ryzyko przestojów i kosztownych incydentów. Jeśli chcesz przejść drogę od luźnych procedur do powtarzalnej zgodności z KSC/NIS2, zacznij od diagnozy, a potem konsekwentnie wdrażaj filary: governance, tożsamość, segmentację, SIEM/SOC, IR oraz BCP/DRP. Efekty zobaczysz zarówno w raportach, jak i w codziennej pracy urzędu.

Wdrożenie backupu dla zakładu przemysłowego – czas odtworzenia danych skrócony o 60%

W przemyśle przestój liczy się w minutach. Gdy linia staje, koszty rosną, a opóźnienia rozchodzą się po całym łańcuchu dostaw. Dlatego backup nie może być „tylko” kopią danych. Musi stać się procedurą odtwarzania, która działa przewidywalnie, szybko i bezpiecznie. W opisywanym projekcie celem było skrócenie RTO o 60% oraz ochrona przed ransomware, bez naruszania ciągłości pracy systemów OT i ERP.

Punkt startowy: realne wyzwania IT/OT

Zakład posiadał mieszane środowisko: serwery aplikacyjne i bazy danych (ERP, MES), maszyny wirtualne, a także kontrolery i stacje inżynierskie w sieci OT. Kopie wykonywano głównie nocą, bez regularnych testów odtwarzania. W praktyce oznaczało to długie okna RTO i ryzyko utraty danych między kolejnymi kopiami. Dodatkowo polityki bezpieczeństwa nie obejmowały niezmienialnych repozytoriów, więc ewentualny atak mógł zaszyfrować również kopie.

Cel biznesowy: szybciej wrócić do pracy, nie tylko „mieć backup”

Razem z klientem zdefiniowaliśmy konkretne wskaźniki: krytyczne systemy powinny wracać do działania w ciągu kilku godzin, a punkt odtworzenia RPO miał wynosić maksymalnie kilkanaście minut. Jednocześnie rozwiązanie musiało być zgodne z wymaganiami bezpieczeństwa (m.in. NIS2/ISO 27001) i nie zakłócać pracy sieci OT.

Architektura: 3-2-1-1-0 w wersji przemysłowej

Nową strategię oparliśmy na zasadzie 3-2-1-1-0: trzy kopie danych, na dwóch różnych nośnikach, jedna poza siedzibą, jedna niezmienialna (WORM/immutable) i zero błędów w weryfikacji. W praktyce wdrożyliśmy trzy warstwy:

  1. Warstwa lokalna (on-prem) – szybkie repozytorium z deduplikacją i kompresją, pozwalające na natychmiastowe uruchamianie maszyn w trybie „instant recovery”.
  2. Warstwa niezmienialna – repozytorium z blokadą zapisu (WORM/immutable) i odrębną tożsamością administracyjną, izolowaną od domeny produkcyjnej.
  3. Warstwa off-site – replikacja przyspieszona (WAN acceleration) do drugiej lokalizacji lub chmury, z szyfrowaniem end-to-end.

Dzięki temu można szybko podnieść krytyczne systemy lokalnie, a jednocześnie posiadać „czystą” kopię poza organizacją.

Mechanika kopii: szybkie przyrosty i odzyski granularne

Aby zredukować okna backupowe, włączyliśmy forever-incremental z CBT (Change Block Tracking). Bazy danych i ERP otrzymały backupy zrozumiałe dla aplikacji (application-aware), co ułatwiło spójne odtwarzanie. W sieci OT objęliśmy backupem konfiguracje PLC/SCADA oraz maszyny inżynierskie, a transfery zaplanowaliśmy tak, by nie wpływać na pasmo dla sterowników. Przywracanie stało się elastyczne: od całych VM i serwerów fizycznych, przez pojedyncze bazy, aż po pliki czy pojedyncze obiekty w ERP.

Automatyzacja i runbooki: od kliknięcia do produkcji

Sama kopia nie skróci RTO, jeśli brakuje procedury. Dlatego powstały runbooki z kolejnością przywracania systemów i gotowe plany awaryjne dla różnych scenariuszy (awaria sprzętu, błąd aktualizacji, incydent bezpieczeństwa). Najważniejsze usługi oznaczyliśmy jako „tier 1”, co pozwoliło podnosić je w trybie instant recovery. Co miesiąc przeprowadzamy automatyczne testy DR w odizolowanej sieci, aby potwierdzić, że kopie uruchamiają się poprawnie i spełniają wymagania RTO/RPO.

Odporność na ransomware: bezpieczeństwo kopii to podstawa

Kluczowe elementy to repozytoria niezmienialne, MFA dla administracji, separacja ról oraz tzw. hardened repo niedostępne z poziomu standardowych kont domenowych. Dodatkowo włączyliśmy analitykę anomalii, która ostrzega o nietypowych wzorcach zmian, a więc pomaga wykryć incydent na wczesnym etapie. W efekcie nawet jeśli produkcja zostanie zaszyfrowana, czyste kopie pozostają nienaruszone.

Efekty: RTO krótsze o 60% i stabilne RPO

Po zakończeniu wdrożenia przetestowaliśmy pełny scenariusz odtworzeniowy. Czas przywrócenia krytycznych systemów spadł o ~60%. W liczbach oznacza to przejście z ok. 10 godzin do 4 godzin dla kluczowych usług. Jednocześnie RPO dla ERP i baz danych ustabilizowało się na poziomie 15 minut, a dla pozostałych systemów – w typowym zakresie od 30 do 60 minut. Co ważne, testy DR stały się rutyną, a raporty z odtworzeń są czytelne dla audytorów i działu produkcji.

Organizacja i harmonogram: bez zatrzymywania linii

Projekt podzieliliśmy na krótkie etapy, aby nie ingerować w rytm produkcji. Najpierw przygotowaliśmy środowisko docelowe i polityki backupu. Następnie przenieśliśmy obciążenia do nowych repozytoriów i włączyliśmy replikację off-site. Na końcu dopracowaliśmy runbooki i przeszkoliliśmy zespół. Dzięki takiej kolejności wdrożenie nie wymagało przestojów, a użytkownicy odczuli jedynie poprawę szybkości odtwarzania.

Zgodność i audyt: przygotowanie na kontrole

Nowa polityka backupu wspiera wymagania formalne, w tym rozdzielenie ról, dowody testów odtworzeniowych, rejestry zmian oraz raporty integralności kopii. Dla działu bezpieczeństwa to konkretne dokumenty, a dla kierownictwa – jasne wskaźniki: RTO, RPO i liczba udanych testów DR w kwartale.

Podsumowanie: od „mamy kopie” do „wracamy do pracy”

Największą różnicę zrobiło połączenie trzech elementów: architektury 3-2-1-1-0, automatyzacji odtworzeń oraz regularnych testów. Dzięki nim backup przestał być kosztem, a stał się narzędziem utrzymania ciągłości. W efekcie zakład skrócił czas odtworzenia danych o 60%, zyskał odporność na ransomware i otrzymał procedury, które można powtarzać przy każdej zmianie w systemach.

Modernizacja serwerowni w instytucji publicznej – redukcja kosztów utrzymania o 25%

Modernizacja serwerowni w instytucji publicznej nie musi oznaczać rewolucji. W wielu jednostkach sprzęt działa poprawnie, lecz pochłania za dużo energii, a chłodzenie pracuje zbyt intensywnie. Do tego dochodzą rozproszone licencje oraz serwery, które przez lata przestały pełnić kluczową rolę. Gdy połączymy audyt, porządek w zasobach i kilka dobrze zaplanowanych zmian, redukcja kosztów utrzymania o około 25% jest jak najbardziej realna — często już w pierwszym roku.

Punkt wyjścia: krótki audyt, który daje jasność

Każdy projekt zaczyna się od danych. Dlatego najpierw zbieramy pomiary zużycia energii, temperatur i obciążenia serwerów. Mapujemy usługi, sprawdzamy realne wykorzystanie CPU i pamięci oraz oceniamy sprawność zasilania awaryjnego (UPS). Dzięki temu wiemy, które elementy generują największe koszty i gdzie najszybciej uzyskamy efekt. Audyt trwa krótko, a daje solidną podstawę do decyzji i harmonogramu zmian bez przestojów.

Co zmieniliśmy: historia wdrożenia „bez bólu”

W opisywanym projekcie modernizacja serwerowni w instytucji publicznej przebiegała etapami, tak aby zachować ciągłość usług. Najpierw uporządkowaliśmy środowisko wirtualne. Zidentyfikowaliśmy maszyny o niskim wykorzystaniu zasobów oraz przestarzałe snapshoty, które zajmowały miejsce na macierzy. Część usług przenieśliśmy na mniej hostów, co pozwoliło zwiększyć gęstość obliczeń i lepiej wykorzystać posiadany sprzęt. Dzięki temu od razu spadło zapotrzebowanie na prąd oraz chłodzenie.

Następnie zajęliśmy się temperaturą i przepływem powietrza. Utrzymanie zbyt niskich temperatur w serwerowni zwiększa rachunki, a nie przekłada się na wyższą niezawodność. Po korekcie ustawień klimatyzacji, uporządkowaniu kierunku nawiewu i odseparowaniu korytarzy zimnych oraz ciepłych, jednostki chłodnicze zaczęły pracować efektywniej. Co ważne, nie pogorszyło to warunków dla sprzętu — wręcz przeciwnie, stabilność temperatur poprawiła się.

Równolegle zoptymalizowaliśmy zasilanie. Sprawdziliśmy obciążenie faz, tryby pracy UPS oraz stan baterii. Wprowadziliśmy ustawienia, które utrzymują urządzenia bliżej punktu najlepszej sprawności. Tam, gdzie to miało sens, włączyliśmy tryby oszczędne i zaktualizowaliśmy firmware. Efekt? Mniej strat energii i lepsza przewidywalność pracy.

Na koniec zrobiliśmy porządek w licencjach i umowach serwisowych. Część subskrypcji była nieużywana, a terminy odnowień rozjechane. Po ich zgrupowaniu i dopasowaniu do nowej architektury pojawiły się dodatkowe oszczędności. Całość spięliśmy monitoringiem DCIM/IT, który pozwala raportować kluczowe wskaźniki i szybko reagować na odchylenia.

Wynik: 25% mniej kosztów, szybki zwrot z inwestycji

Po sześciu miesiącach porównaliśmy rachunki oraz koszty utrzymania „przed” i „po”. Zużycie energii spadło zauważalnie dzięki lepszej konsolidacji i regulacji chłodzenia. Koszty licencji i serwisu obniżyły się po uporządkowaniu umów. Sumarycznie instytucja osiągnęła około 25% oszczędności w OPEX. To przełożyło się na szybki zwrot z poniesionych nakładów, a część efektów pojawiła się niemal natychmiast, ponieważ wiele działań nie wymaga drogich inwestycji.

Dlaczego to działa w sektorze publicznym

Jednostki publiczne rzadko ryzykują agresywne zmiany. Dlatego kluczem jest przewidywalny plan, który działa krok po kroku. Audyt pokazuje, gdzie „ucieka” prąd i które serwery są nadmiarowe. Konsolidacja porządkuje środowisko bez wpływu na użytkowników. Korekta chłodzenia i UPS daje efekt przy niskim ryzyku. Monitoring zamyka pętlę — dzięki niemu oszczędności są trwałe i mierzalne. Co istotne, cały proces pozostaje zgodny z wymogami RODO i KSC, a opisy w dokumentacji przetargowej można formułować w sposób funkcjonalny, bez wskazywania konkretnych marek.

Jak mierzymy sukces po modernizacji

Po wdrożeniu nie zostawiamy serwerowni samej sobie. Regularne raporty prezentują kluczowe wskaźniki, między innymi Power Usage Effectiveness (PUE), zużycie energii na szafę, a także wykorzystanie hostów i macierzy. Dzięki temu widać, które usługi generują koszty i gdzie wprowadzić kolejne korekty. Jeśli pojawi się nowa aplikacja lub rośnie obciążenie sezonowe, łatwo dopasować zasoby bez utraty oszczędności.

Bezpieczeństwo i zgodność — bez kompromisów

W trakcie projektu zwracamy uwagę na bezpieczeństwo fizyczne i logiczne. Kontrola dostępu do serwerowni, monitoring wejść oraz właściwa utylizacja nośników są standardem. Podobnie wygląda kwestia kopii zapasowych i odtwarzania po awarii. Modernizacja obejmuje także testy DR, aby mieć pewność, że infrastruktura poradzi sobie w sytuacji kryzysowej. Dzięki temu oszczędności nie powstają kosztem ryzyka.

Co z chmurą? Hybryda z głową

Nie każda usługa musi działać lokalnie. W wielu przypadkach elastyczna chmura pomaga obsłużyć okresowe skoki zapotrzebowania. Jednak decyzję warto podjąć po analizie całkowitego kosztu posiadania. Często model hybrydowy sprawdza się najlepiej: krytyczne systemy pozostają w serwerowni, a elementy mniej wrażliwe korzystają z chmury. Takie podejście utrzymuje kontrolę nad danymi i jednocześnie obniża koszty.

Podsumowanie: oszczędności, które widać w budżecie

Modernizacja serwerowni w instytucji publicznej to przede wszystkim porządek, pomiary i rozsądne zmiany. Dzięki nim rachunki maleją, a stabilność rośnie. Redukcja kosztów utrzymania o 25% to efekt, który da się powtórzyć, jeśli poprzedzimy wdrożenie dobrym audytem i zaplanujemy prace bez przestojów. Co najważniejsze, instytucja zyskuje infrastrukturę gotową na kolejne lata — bardziej wydajną, przewidywalną i łatwiejszą w utrzymaniu.