Oprogramowanie zabezpieczające informacje wykorzystuje tę metodę. Oprogramowanie zabezpieczające informacje. praktycznie nieograniczone możliwości ich rozwoju poprzez wprowadzanie zmian uwzględniających nowe zagrożenia bezpieczeństwa informacji

Wyślij swoją dobrą pracę do bazy wiedzy jest prosta. Skorzystaj z poniższego formularza

Studenci, doktoranci, młodzi naukowcy, którzy wykorzystują bazę wiedzy w swoich studiach i pracy, będą Państwu bardzo wdzięczni.

Opublikowano na http://www.allbest.ru/

Podstawowe informacje o pracy

Wersja szablonu 1.1

Oddział w Niżnym Nowogrodzie

Rodzaj pracy Elektroniczna pisemna wstępna obrona

Nazwa dyscypliny

Temat

Narzędzia programowe do ochrony informacji w sieciach

Wykonałem tę pracę

Ipatow Aleksander Siergiejewicz

Umowa nr 09200080602012

Wstęp

1. Podstawowe założenia teorii bezpieczeństwa informacji

1.1 Bezpieczeństwo informacji. Podstawowe definicje

1.2 Zagrożenia bezpieczeństwa informacji

1.3 Budowa systemów zabezpieczających przed zagrożeniami naruszenia poufności informacji

1.3.1 Model systemu ochrony

1.3.2 Środki organizacyjne i bezpieczeństwa

1.3.3 Identyfikacja i uwierzytelnianie

1.3.4 Kontrola dostępu

1.3.5 Kryptograficzne metody zapewnienia poufności informacji

1.3.6 Metody ochrony obwodu zewnętrznego

1.3.7 Rejestracja i audyt

1.4 Systemy ochrony budynków przed zagrożeniami integralności

1.4.1 Zasady uczciwości

1.4.2 Metody kryptograficzne zapewniające integralność informacji

1.5 Systemy ochrony budynków przed zagrożeniami dostępności

2. Oprogramowanie zabezpieczające informacje w CS

2.1 Bezpieczeństwo na poziomie systemu operacyjnego

2.2 Metody ochrony kryptograficznej

2.3 Szyfrowanie dysku

2.4 Specjalistyczne oprogramowanie zabezpieczające informacje

2.5 Względy bezpieczeństwa architektonicznego

2.6 Systemy archiwizacji i powielania

2.7 Analiza bezpieczeństwa

Wniosek

Słowniczek

Lista wykorzystanych źródeł

Lista skrótów

Wstęp

Postęp dał ludzkości wiele osiągnięć, ale ten sam postęp spowodował także wiele problemów. Ludzki umysł, rozwiązując jedne problemy, nieuchronnie napotyka inne, nowe. Odwiecznym problemem jest bezpieczeństwo informacji. Na różnych etapach swojego rozwoju ludzkość rozwiązywała ten problem ze specyfiką właściwą danej epoce. Wynalezienie komputera i dalszy szybki rozwój technologii informatycznych w drugiej połowie XX wieku sprawiły, że problematyka ochrony informacji stała się tak istotna i dotkliwa, jak informatyzacja jest dziś istotna dla całego społeczeństwa.

Nawet Juliusz Cezar zdecydował się chronić cenne informacje podczas procesu transferu. Wynalazł szyfr Cezara. Szyfr ten umożliwiał wysyłanie wiadomości, których nikt nie mógłby odczytać w przypadku przechwycenia.

Koncepcja ta rozwinęła się podczas II wojny światowej. Niemcy używali maszyny zwanej Enigma do szyfrowania wiadomości wysyłanych do jednostek wojskowych.

Oczywiście sposób, w jaki chronimy informacje, stale się zmienia, wraz ze zmianą naszego społeczeństwa i technologii. Pojawienie się i powszechne wykorzystanie komputerów doprowadziło do tego, że większość ludzi i organizacji zaczęła przechowywać informacje w formie elektronicznej. Istnieje potrzeba ochrony takich informacji.

Na początku lat 70. XX-wieczni David Bell i Leonard La Padula opracowali model bezpieczeństwa operacji wykonywanych na komputerze. Model ten opierał się na rządowej koncepcji poziomów tajności informacji (niejawne, poufne, tajne, ściśle tajne) i poziomów jawności. Jeżeli osoba (podmiot) posiadała wyższy poziom uprawnień niż stopień tajności akt (obiektu), wówczas otrzymywała dostęp do akt, w przeciwnym razie dostępu odmawiano. Koncepcja ta została wdrożona w standardzie Trusted Computing System Evaluation Criteria (TCSEC) 5200.28, opracowanym w 1983 roku przez Departament Obrony USA. Ze względu na kolor okładki nazwano ją „Pomarańczową Księgą”.

Pomarańczowa Księga określiła wymagania funkcjonalne i gwarancyjne dla poszczególnych sekcji. Aby uzyskać określony poziom certyfikacji, system musiał spełnić te wymagania.

Spełnienie wymagań dotyczących większości certyfikatów bezpieczeństwa było czasochłonne i kosztowne. W rezultacie bardzo niewiele systemów uzyskało certyfikaty wyższe niż poziom C2 (w rzeczywistości tylko jeden system kiedykolwiek uzyskał certyfikat na poziomie A1 – Honeywell SCOMP) Cole E. Przewodnik po ochronie przed hakerami. - M.: Wydawnictwo Williams, 2002 - s. 25.

Przy opracowywaniu innych kryteriów podejmowano próby oddzielenia wymagań funkcjonalnych i zapewniających. Zmiany te zostały ujęte w Niemieckiej Zielonej Księdze w 1989 r., Kryteriach Kanadyjskich w 1990 r., Kryteriach Oceny Bezpieczeństwa Technologii Informatycznych (ITSEC) w 1991 r. oraz Kryteriach Federalnych (znanych jako Wspólne Kryteria) „Kryteria Ogólne”) w 1992 r. Każdy standard oferował inny sposób certyfikacji bezpieczeństwa systemów komputerowych.

GOST 28147-89 to radziecki i rosyjski standard szyfrowania symetrycznego wprowadzony w 1990 roku, będący także standardem WNP. Pełna nazwa - „GOST 28147-89 Systemy przetwarzania informacji. Ochrona kryptograficzna. Algorytm konwersji kryptograficznej.” Algorytm szyfru blokowego. Przy wykorzystaniu metody szyfrowania gamma może realizować funkcje algorytmu szyfrowania strumieniowego.

Według niektórych informacji A. Vinokurov. Algorytm szyfrowania GOST 28147-89, jego zastosowanie i implementacja dla komputerów z platformą Intel x86 (http://www.enlight.ru), historia tego szyfru jest znacznie starsza. Algorytm, który później stał się podstawą standardu, narodził się prawdopodobnie w trzewiach Ósmego Zarządu Głównego KGB ZSRR (obecnie w strukturze FSB), najprawdopodobniej w jednym z zamkniętych badań podległych mu instytutów, prawdopodobnie jeszcze w latach 70. XX w. w ramach projektów tworzenia programowych i sprzętowych implementacji szyfru dla różnych platform komputerowych.

Od czasu publikacji GOST oznaczono go restrykcyjną pieczęcią „Do użytku służbowego”, a formalnie szyfr uznano za „w pełni otwarty” dopiero w maju 1994 roku. Historia powstania szyfru i kryteria twórców nie zostały opublikowane od 2010 roku.

Jednym z problemów związanych z kryteriami oceny bezpieczeństwa systemu był brak zrozumienia mechanizmów sieciowych. Kiedy komputery są łączone, do starych dołączają się nowe problemy bezpieczeństwa. Pomarańczowa Księga nie poruszyła problemów pojawiających się podczas łączenia komputerów we wspólną sieć, dlatego w 1987 roku pojawiła się TNI (Trusted Network Interpretation), czyli Czerwona Księga. „Czerwona Księga” zachowuje wszystkie wymagania bezpieczeństwa z „Pomarańczowej Księgi” i stanowi próbę zajęcia się przestrzenią sieciową i stworzenia koncepcji bezpieczeństwa sieci. Niestety, Czerwona Księga łączyła także funkcjonalność z gwarancją. Tylko kilka systemów zostało ocenionych przez TNI i żaden nie odniósł komercyjnego sukcesu.

W dzisiejszych czasach problemy stały się jeszcze poważniejsze. Organizacje zaczęły korzystać z sieci bezprzewodowych, których powstania Czerwona Księga nie mogła przewidzieć. W przypadku sieci bezprzewodowych certyfikat Czerwonej Księgi jest uważany za przestarzały.

Systemy komputerowe i technologie sieciowe rozwijają się zbyt szybko. W związku z tym szybko pojawiają się nowe sposoby ochrony informacji. Dlatego temat mojej pracy kwalifikacyjnej „Oprogramowanie zabezpieczające informacje w sieciach” jest bardzo istotny.

Przedmiotem badań są informacje przesyłane sieciami telekomunikacyjnymi.

Tematem opracowania jest bezpieczeństwo informacji w sieciach.

Głównym celem pracy kwalifikacyjnej jest badanie i analiza oprogramowania zabezpieczającego informacje w sieciach. Aby osiągnąć ten cel, konieczne jest rozwiązanie szeregu problemów:

Rozważ zagrożenia bezpieczeństwa i ich klasyfikację;

Opisać metody i środki ochrony informacji w sieci, ich klasyfikację i cechy zastosowania;

Przedstawić możliwości fizycznych, sprzętowych i programowych środków ochrony informacji w sieciach komputerowych (CN), określić ich zalety i wady.

1. Podstawowe założenia teorii bezpieczeństwa informacji

1.1 Bezpieczeństwo informacji. Podstawowe definicje

W różnych naukach termin „informacja” jest różnie definiowany. Na przykład w filozofii informację uważa się za właściwość obiektów materialnych i procesów mających na celu zachowanie i wygenerowanie określonego stanu, który w różnych formach materialnych i energetycznych może być przenoszony z jednego obiektu na drugi. W cybernetyce informację nazywa się zwykle miarą eliminacji niepewności. W przyszłości przez informację zrozumiemy wszystko, co można przedstawić w symbolach skończonego (na przykład binarnego) alfabetu.

Definicja ta może wydawać się nieco nietypowa. Jednocześnie wynika to w sposób naturalny z podstawowych zasad architektury współczesnej informatyki. Rzeczywiście ograniczamy się do kwestii bezpieczeństwa informacji zautomatyzowanych systemów - a wszystko, co jest przetwarzane przy użyciu nowoczesnej technologii komputerowej, jest reprezentowane w formie binarnej.Tsirlov V.L. Podstawy bezpieczeństwa informacji systemów zautomatyzowanych – „Phoenix”, 2008 – s. 8

Przedmiotem naszych rozważań są systemy zautomatyzowane. Przez zautomatyzowany system przetwarzania informacji (AS) będziemy rozumieć zbiór następujących obiektów:

1. Sprzęt komputerowy;

2. Oprogramowanie;

3. Kanały komunikacji;

4. Informacje w różnych mediach;

5. Personel i użytkownicy systemu.

Bezpieczeństwo informacji systemu operacyjnego uważa się za stan systemu, w którym:

1. System jest w stanie przeciwstawić się destabilizującemu działaniu zagrożeń wewnętrznych i zewnętrznych.

2. Funkcjonowanie i sam fakt istnienia systemu nie stwarzają zagrożeń dla otoczenia zewnętrznego i elementów samego systemu.

W praktyce bezpieczeństwo informacji jest zwykle rozpatrywane jako połączenie trzech podstawowych właściwości informacji chronionej:

? poufność, co oznacza, że ​​dostęp do informacji mają wyłącznie legalni użytkownicy;

? integralność, zapewniająca, po pierwsze, zmianę informacji objętych ochroną wyłącznie przez legalnych i uprawnionych użytkowników, a po drugie, aby informacja była wewnętrznie spójna i (o ile ta właściwość występuje) odzwierciedlała stan rzeczywisty;

? dostępność, gwarantująca nieograniczony dostęp do chronionych informacji legalnym użytkownikom.

Działania mające na celu zapewnienie bezpieczeństwa informacji powszechnie nazywane są ochroną informacji.

Metody zapewnienia bezpieczeństwa informacji (Załącznik A) są bardzo zróżnicowane.

Usługi bezpieczeństwa sieci to mechanizmy służące ochronie informacji przetwarzanych w rozproszonych systemach i sieciach komputerowych.

Metody inżynieryjne i techniczne mają na celu zapewnienie ochrony informacji przed wyciekiem kanałami technicznymi - na przykład poprzez przechwytywanie promieniowania elektromagnetycznego lub informacji głosowych. Prawne i organizacyjne metody ochrony informacji tworzą ramy regulacyjne dla organizacji różnego rodzaju działań związanych z zapewnieniem bezpieczeństwa informacji.

Teoretyczne metody zapewnienia bezpieczeństwa informacji rozwiązują z kolei dwa główne problemy. Pierwszym z nich jest sformalizowanie różnego rodzaju procesów związanych z zapewnieniem bezpieczeństwa informacji. Przykładowo formalne modele kontroli dostępu pozwalają na ścisłe opisanie wszystkich możliwych przepływów informacji w systemie – a tym samym gwarantują spełnienie wymaganych właściwości bezpieczeństwa. Prowadzi to bezpośrednio do drugiego zadania – ścisłego uzasadnienia poprawności i adekwatności funkcjonowania systemów bezpieczeństwa informacji przy analizie ich bezpieczeństwa. Problem ten pojawia się np. przy certyfikacji systemów automatycznych pod kątem wymogów bezpieczeństwa informacji.

1.2 Zagrożenia bezpieczeństwa informacji

Formułując definicję bezpieczeństwa informacji AS wspomnieliśmy o pojęciu zagrożenia. Przyjrzyjmy się temu nieco bardziej szczegółowo.

Należy pamiętać, że ogólnie zagrożenie jest zwykle rozumiane jako potencjalnie możliwe zdarzenie, działanie, proces lub zjawisko, które może prowadzić do szkody dla czyichś interesów. Z kolei zagrożeniem bezpieczeństwa informacji zautomatyzowanego systemu jest możliwość oddziaływania na informacje przetwarzane w systemie AS, prowadzącego do naruszenia poufności, integralności lub dostępności tych informacji, a także możliwość oddziaływania na elementy systemu AS. , prowadząc do ich utraty, zniszczenia lub nieprawidłowego działania.

Zagrożenia można klasyfikować według wielu kryteriów. Oto najczęstsze z nich. Tsirlov V.L. Podstawy bezpieczeństwa informacji systemów zautomatyzowanych – „Phoenix”, 2008 – s. 10

1. Ze względu na charakter ich występowania zwyczajowo rozróżnia się zagrożenia naturalne i sztuczne.

Zagrożenia naturalne nazywane są zwykle zagrożeniami, które powstają w wyniku oddziaływania na AS obiektywnych procesów fizycznych lub zjawisk naturalnych niezależnych od człowieka. Z kolei sztuczne zagrożenia powodowane są przez czynnik ludzki.

Przykładami zagrożeń naturalnych są pożary, powodzie, tsunami, trzęsienia ziemi itp. Nieprzyjemną cechą takich zagrożeń jest ogromna trudność lub wręcz niemożność ich przewidzenia.

2. Ze względu na stopień intencjonalności rozróżnia się zagrożenia przypadkowe i umyślne.

Zagrożenia przypadkowe powstają na skutek zaniedbań lub niezamierzonych błędów personelu. Zamierzone zagrożenia zwykle wynikają z ukierunkowanego działania osoby atakującej.

Przykładami przypadkowych zagrożeń są niezamierzone wprowadzenie błędnych danych i niezamierzone uszkodzenie sprzętu. Przykładem celowego zagrożenia jest przedostanie się atakującego na obszar chroniony z naruszeniem ustalonych zasad dostępu fizycznego.

3. W zależności od źródła zagrożenia zwyczajowo rozróżnia się:

- Zagrożenia pochodzące ze środowiska naturalnego. Przykładami takich zagrożeń są pożary, powodzie i inne klęski żywiołowe.

- Zagrożenia pochodzące od człowieka. Przykładem takiego zagrożenia może być wprowadzenie agentów w szeregi personelu AS przez konkurencyjną organizację.

- Zagrożenia pochodzące z autoryzowanego oprogramowania i sprzętu. Przykładem takiego zagrożenia jest nieumiejętne korzystanie z narzędzi systemowych.

- Zagrożenia pochodzące z nieautoryzowanego oprogramowania i sprzętu. Do takich zagrożeń zalicza się na przykład wprowadzenie do systemu keyloggerów.

4. Ze względu na położenie źródła zagrożenia wyróżnia się:

- Zagrożenia, których źródło znajduje się poza obszarem kontrolowanym. Przykładami takich zagrożeń są przechwytywanie fałszywego promieniowania elektromagnetycznego (PEMIN) lub przechwytywanie danych przesyłanych kanałami komunikacyjnymi; zdalne fotografowanie i nagrywanie filmów;

przechwytywanie informacji akustycznej za pomocą mikrofonów kierunkowych.

- Zagrożenia, których źródło znajduje się na obszarze kontrolowanym.

Przykładami takich zagrożeń jest użycie urządzeń podsłuchowych lub kradzież nośników zawierających poufne informacje.

5. Ze względu na stopień oddziaływania na AS rozróżnia się zagrożenia pasywne i aktywne. Zagrożenia pasywne po wdrożeniu nie powodują żadnych zmian w składzie i strukturze systemu AS.

Wręcz przeciwnie, wdrożenie aktywnych zagrożeń zakłóca strukturę zautomatyzowanego systemu.

Przykładem zagrożenia pasywnego może być nieautoryzowane kopiowanie plików danych.

6. Ze względu na sposób dostępu do zasobów AS wyróżnia się:

- Zagrożenia wykorzystujące standardowy dostęp. Przykładem takiego zagrożenia jest nieuprawnione zdobycie hasła w drodze przekupstwa, szantażu, gróźb lub przemocy fizycznej wobec prawowitego właściciela.

- Zagrożenia korzystające z niestandardowej ścieżki dostępu. Przykładem takiego zagrożenia jest wykorzystanie niezadeklarowanych możliwości środków bezpieczeństwa.

Kryteria klasyfikacji zagrożeń można kontynuować, jednak w praktyce najczęściej stosuje się następującą podstawową klasyfikację zagrożeń, opartą na trzech wprowadzonych wcześniej podstawowych właściwościach informacji chronionej:

1. Groźba naruszenia tajemnicy informacji, w wyniku której informacja stanie się dostępna podmiotowi niemającemu uprawnień do zapoznania się z nią.

2. Groźby naruszenia integralności informacji, do których zalicza się złośliwe zniekształcenie informacji przetwarzanych za pomocą AS.

3. Zagrożenia zakłóceniami dostępności informacji powstające w przypadku zablokowania legalnym użytkownikom dostępu do niektórych zasobów AS.

Pamiętajmy, że realnych zagrożeń bezpieczeństwa informacji nie zawsze da się jednoznacznie zaklasyfikować do jednej z wymienionych kategorii. Na przykład zagrożenie kradzieżą nośników danych można, pod pewnymi warunkami, zaliczyć do wszystkich trzech kategorii.

Należy pamiętać, że wyszczególnienie zagrożeń specyficznych dla konkretnego zautomatyzowanego systemu jest ważnym etapem analizy podatności AS, przeprowadzanej np. w ramach audytu bezpieczeństwa informacji i stwarza podstawę do późniejszej analizy ryzyka. Istnieją dwie główne metody tworzenia listy zagrożeń:

1. Konstrukcja dowolnych list zagrożeń. Ewentualne zagrożenia są identyfikowane przez ekspertów i rejestrowane w sposób losowy i nieustrukturyzowany.

Podejście to charakteryzuje się niekompletnością i niespójnością uzyskanych wyników.

2. Konstrukcja drzew zagrożeń. Zagrożenia opisuje się jako jedno lub więcej drzew. Opisywanie zagrożeń odbywa się od góry do dołu, a ostatecznie każdy liść drzewa zawiera opis konkretnego zagrożenia. W razie potrzeby można zorganizować połączenia logiczne pomiędzy poddrzewami.

Rozważmy jako przykład drzewo zagrożeń blokowania dostępu do aplikacji sieciowej (Załącznik B).

Jak widzimy, zablokowanie dostępu do aplikacji może nastąpić albo w wyniku ataku DoS na interfejs sieciowy, albo w wyniku wyłączenia komputera. Z kolei wyłączenie komputera może nastąpić albo w wyniku nieautoryzowanego fizycznego dostępu osoby atakującej do komputera, albo w wyniku wykorzystania przez osobę atakującą luki implementującej atak przepełnienia bufora.

1.3 Budowa systemów zabezpieczających przed zagrożeniami naruszenia poufności informacji

1.3.1 Model systemu ochrony

Budując systemy zabezpieczające przed zagrożeniami naruszenia poufności informacji w systemach zautomatyzowanych, stosuje się podejście zintegrowane. (Załącznik B).

Jak widać z powyższego schematu, ochrona podstawowa realizowana jest poprzez wdrożone środki organizacyjne i mechanizmy kontroli fizycznego dostępu do systemu AS. Następnie na etapie kontroli dostępu logicznego realizowana jest ochrona z wykorzystaniem różnych usług bezpieczeństwa sieciowego. We wszystkich przypadkach należy zastosować równolegle zestaw inżynieryjnych i technicznych środków ochrony informacji, blokując możliwość wycieku kanałami technicznymi.

Przyjrzyjmy się bardziej szczegółowo każdemu z podsystemów zaangażowanych we wdrażanie ochrony.

1.3.2 Środki organizacyjne i bezpieczeństwa

Mechanizmy te obejmują na ogół:

- wdrożenie systemu kontroli i wyznaczania fizycznego dostępu do elementów zautomatyzowanego systemu.

- utworzenie służby bezpieczeństwa i ochrony fizycznej.

- organizowanie mechanizmów kontroli przemieszczania się pracowników i gości (za pomocą systemów monitoringu wizyjnego, kart zbliżeniowych itp.);

- opracowywanie i wdrażanie regulaminów, opisów stanowisk pracy i podobnych dokumentów regulacyjnych;

- uregulowanie trybu pracy z mediami zawierającymi informacje poufne.

Nie wpływając na logikę działania systemu AS, środki te, prawidłowo i odpowiednio wdrożone, stanowią niezwykle skuteczny mechanizm ochronny i są niezbędne do zapewnienia bezpieczeństwa każdego rzeczywistego systemu.

1.3.3 Identyfikacja i uwierzytelnianie

Przypomnijmy, że przez identyfikację rozumie się zazwyczaj nadawanie podmiotom dostępu unikalnych identyfikatorów i porównywanie ich z listą możliwych. Z kolei uwierzytelnienie rozumiane jest jako sprawdzenie, czy podmiot dostępu jest właścicielem prezentowanego przez niego identyfikatora i potwierdzenie jego autentyczności.

Zatem zadaniem identyfikacji jest odpowiedź na pytanie „kto to jest?”, a uwierzytelnienie brzmi „czy to naprawdę on?”

Różnorodność obecnie stosowanych metod uwierzytelniania można podzielić na 4 duże grupy:

1. Metody oparte na znajomości tajnych informacji.

Klasycznym przykładem takich metod jest ochrona hasłem, gdy użytkownik proszony jest o podanie hasła – określonego ciągu znaków – w celu uwierzytelnienia. Te metody uwierzytelniania są najczęstsze.

2. Metody oparte na wykorzystaniu obiektu unikalnego. Takim przedmiotem może być karta inteligentna, token, klucz elektroniczny itp.

3. Metody oparte na wykorzystaniu cech biometrycznych człowieka. W praktyce najczęściej wykorzystuje się jedną lub więcej z następujących cech biometrycznych:

- odciski palców;

- rysunek siatkówki lub tęczówki oka;

- rysunek termiczny dłoni;

- zdjęcie lub rysunek termiczny twarzy;

- pismo ręczne (malarstwo);

- głos.

Najszerzej stosowanymi skanerami są skanery linii papilarnych oraz skanery siatkówki i tęczówki.

4. Metody oparte na informacjach związanych z użytkownikiem.

Przykładem takiej informacji są współrzędne użytkownika wyznaczane za pomocą GPS. Jest mało prawdopodobne, aby to podejście było stosowane jako pojedynczy mechanizm uwierzytelniania, ale jest całkiem akceptowalne jako jeden z kilku wspólnych mechanizmów.

Powszechną praktyką jest łączenie kilku powyższych mechanizmów – w takich przypadkach mówi się o uwierzytelnianiu wieloskładnikowym.

Cechy systemów uwierzytelniania hasłem

Przy całej różnorodności istniejących mechanizmów uwierzytelniania, najczęstszym z nich pozostaje ochrona hasłem. Powodów jest kilka, spośród których zauważamy następujące:

- Względna łatwość wdrożenia. Rzeczywiście, wdrożenie mechanizmu ochrony hasłem zwykle nie wymaga dodatkowego sprzętu.

- Tradycja. Mechanizmy ochrony hasłem są znane większości użytkowników zautomatyzowanych systemów i nie powodują psychologicznego odrzucenia – w przeciwieństwie np. do skanerów obrazu siatkówki.

Jednocześnie systemy ochrony hasłem charakteryzują się paradoksem, który komplikuje ich skuteczne wdrożenie: silne hasła nie nadają się do użytku przez ludzi.

Rzeczywiście, siła hasła wzrasta, gdy staje się bardziej złożone; jednak im bardziej złożone hasło, tym trudniej je zapamiętać, a użytkownik ma pokusę zapisania niewygodnego hasła, co stwarza dodatkowe kanały jego dyskredytacji.

Rozważmy bardziej szczegółowo główne zagrożenia dla bezpieczeństwa systemów haseł. Ogólnie rzecz biorąc, atakujący może uzyskać hasło na jeden z trzech głównych sposobów:

1. Wykorzystując słabości czynnika ludzkiego. Metody zdobywania haseł mogą być tutaj bardzo różne: szpiegowanie, podsłuchiwanie, szantaż, groźby i wreszcie korzystanie z kont innych osób za zgodą ich prawowitych właścicieli.

2. Przez wybór. Stosowane są następujące metody:

- Kompletna przesada. Metoda ta pozwala odgadnąć dowolne hasło, niezależnie od jego złożoności, jednak w przypadku silnego hasła czas potrzebny na ten atak powinien znacząco przekraczać dopuszczalne zasoby czasowe atakującego.

- Wybór według słownika. Znaczącą część haseł stosowanych w praktyce stanowią znaczące słowa lub wyrażenia. Istnieją słowniki najpopularniejszych haseł, które w wielu przypadkach pozwalają obejść się bez użycia brutalnej siły.

Wybór na podstawie informacji o użytkowniku. Ta inteligentna metoda doboru haseł polega na tym, że jeśli polityka bezpieczeństwa systemu przewiduje samodzielne przydzielanie haseł przez użytkowników, to w zdecydowanej większości przypadków jako hasło zostaną wybrane pewne dane osobowe powiązane z użytkownikiem AS. I chociaż takimi informacjami może być wszystko, od urodzin teściowej po pseudonim ulubionego psa, posiadanie informacji o użytkowniku pozwala sprawdzić najczęstsze opcje (urodziny, imiona dzieci itp.).

3. Wykorzystując niedociągnięcia we wdrażaniu systemów haseł. Do takich wad wdrożeniowych zaliczają się możliwe do wykorzystania luki w zabezpieczeniach usług sieciowych wdrażających określone komponenty systemu ochrony hasłem lub niezadeklarowane możliwości odpowiedniego oprogramowania lub sprzętu.

Budując system ochrony hasłem należy wziąć pod uwagę specyfikę AS i kierować się wynikami przeprowadzonej analizy ryzyka. Jednocześnie można podać następujące praktyczne zalecenia:

- Ustawianie minimalnej długości hasła. Oczywiście regulacja minimalnej dopuszczalnej długości hasła utrudnia atakującemu odgadnięcie hasła przy użyciu brutalnej siły.

- Zwiększona moc alfabetu haseł. Zwiększając moc (co osiąga się na przykład poprzez obowiązkowe użycie znaków specjalnych), można również skomplikować wyszukiwanie wyczerpujące.

- Sprawdzanie i odrzucanie haseł za pomocą słownika. Mechanizm ten utrudnia odgadnięcie haseł za pomocą słownika poprzez odrzucanie haseł, które w oczywisty sposób są łatwe do odgadnięcia.

- Ustawianie maksymalnego okresu ważności hasła. Wygaśnięcie hasła ogranicza czas, jaki osoba atakująca może spędzić na próbie odgadnięcia hasła. Tym samym skrócenie okresu ważności hasła zmniejsza prawdopodobieństwo pomyślnego odgadnięcia hasła.

- Ustawianie minimalnego okresu ważności hasła. Mechanizm ten uniemożliwia użytkownikowi natychmiastową zmianę nowego hasła na poprzednie.

- Odrzucenie na podstawie historii haseł. Mechanizm zapobiega ponownemu wykorzystaniu haseł – potencjalnie tych, które zostały wcześniej naruszone.

- Ogranicz liczbę prób wprowadzenia hasła. Odpowiedni mechanizm utrudnia interaktywne odgadywanie haseł.

- Wymuszona zmiana hasła przy pierwszym logowaniu użytkownika do systemu. Jeżeli wstępne generowanie haseł dla wszystkich użytkowników zostanie przeprowadzone przez administratora, użytkownik może zostać poproszony o zmianę hasła początkowego przy pierwszym logowaniu - w takim przypadku nowe hasło nie będzie znane administratorowi.

- Opóźnienie przy wpisywaniu nieprawidłowego hasła. Mechanizm zapobiega interaktywnemu odgadywaniu haseł.

- Zakaz wybierania przez użytkownika hasła i automatycznego generowania hasła. Mechanizm ten pozwala zagwarantować siłę wygenerowanych haseł – należy jednak pamiętać, że w tym przypadku użytkownicy nieuchronnie będą mieli problemy z zapamiętaniem haseł.

Ocena siły systemów haseł Tsirlov V.L. Podstawy bezpieczeństwa informacji systemów zautomatyzowanych – „Phoenix”, 2008 – s. 16

Oceńmy elementarne zależności między głównymi parametrami systemów haseł. Wprowadźmy następującą notację:

- A - potęga alfabetu hasła;

- L - długość hasła;

- S=AL - moc przestrzeni hasła;

- V - szybkość wyboru hasła;

- T - okres ważności hasła;

- P - prawdopodobieństwo odgadnięcia hasła w okresie jego ważności.

Oczywiście obowiązuje następująca zależność:

Zazwyczaj prędkość odgadnięcia hasła V i okres ważności hasła T można uznać za znane. W tym przypadku, określając akceptowalną wartość prawdopodobieństwa odgadnięcia hasła P w okresie jego ważności, można określić wymaganą moc przestrzeni hasła S.

Należy pamiętać, że zmniejszenie szybkości odgadywania hasła V zmniejsza prawdopodobieństwo odgadnięcia hasła. Z tego w szczególności wynika, że ​​jeśli hasła będą wybierane poprzez obliczenie funkcji mieszającej i porównanie wyniku z podaną wartością, to zastosowanie powolnej funkcji mieszającej zapewni większą siłę systemu haseł.

Metody przechowywania haseł

Ogólnie rzecz biorąc, istnieją trzy możliwe mechanizmy przechowywania haseł w systemie AS:

1. Otwórz. Oczywiście ta opcja nie jest optymalna, ponieważ automatycznie tworzy wiele kanałów wycieku informacji o hasłach. Rzeczywista potrzeba przechowywania haseł w postaci zwykłego tekstu zdarza się niezwykle rzadko i zazwyczaj takie rozwiązanie jest konsekwencją niekompetencji programisty.

2. Jako wartość skrótu. Ten mechanizm jest wygodny do sprawdzania haseł, ponieważ wartości skrótu są jednoznacznie powiązane z hasłem, ale same w sobie nie są interesujące dla atakującego.

3. Zaszyfrowane. Hasła można szyfrować za pomocą algorytmu kryptograficznego, a klucz szyfrowania można przechowywać:

- na jednym ze stałych elementów systemu;

- na niektórych nośnikach (klucz elektroniczny, karta inteligentna itp.) prezentowanych podczas inicjalizacji systemu;

- klucz można wygenerować na podstawie innych parametrów bezpieczeństwa AS - na przykład z hasła administratora podczas inicjalizacji systemu.

Przesyłanie haseł przez sieć

Najczęstsze opcje wdrożenia to:

1. Przesyłanie haseł w postaci zwykłego tekstu. Podejście to jest niezwykle podatne na ataki, ponieważ hasła mogą zostać przechwycone w kanałach komunikacyjnych. Mimo to wiele stosowanych w praktyce protokołów sieciowych (np. FTP) wymaga przesyłania haseł w postaci zwykłego tekstu.

2. W praktyce czasami spotyka się przekazywanie haseł w postaci wartości skrótu, jednak zazwyczaj nie ma to sensu – skróty haseł mogą zostać przechwycone i ponownie przesłane przez osobę atakującą kanałem komunikacyjnym.

3. Przekazywanie haseł w postaci zaszyfrowanej jest w większości przypadków najbardziej rozsądną i uzasadnioną opcją.

1.3.4 Kontrola dostępu

Kontrola dostępu jest ogólnie rozumiana jako ustalanie uprawnień podmiotów do dalszej kontroli autoryzowanego korzystania z zasobów dostępnych w systemie. Zwyczajowo rozróżnia się dwie główne metody kontroli dostępu: uznaniową i obowiązkową.

Uznaniowe jest rozgraniczenie dostępu pomiędzy nazwanymi podmiotami i nazwanymi przedmiotami.

Oczywiście zamiast macierzy dostępu można zastosować listy uprawnień: np. każdemu użytkownikowi można powiązać listę dostępnych mu zasobów z odpowiednimi uprawnieniami, albo każdy zasób można powiązać z listą użytkowników wskazującą ich uprawnienia aby uzyskać dostęp do danego zasobu.

Obowiązkowa kontrola dostępu jest zwykle realizowana jako kontrola dostępu oparta na poziomach bezpieczeństwa. Uprawnienia każdego użytkownika ustalane są zgodnie z maksymalnym poziomem prywatności, do jakiego jest on dopuszczony. W takim przypadku wszystkie zasoby AS muszą zostać sklasyfikowane według poziomów prywatności.

Zasadnicza różnica między uznaniową a obowiązkową kontrolą dostępu jest następująca: jeśli w przypadku uznaniowej kontroli dostępu prawa dostępu do zasobu dla użytkowników ustala jego właściciel, to w przypadku obowiązkowej kontroli dostępu poziomy prywatności ustalane są zewnętrznie , a właściciel zasobu nie może na nie wpływać. Sam termin „obowiązkowy” jest nieudanym tłumaczeniem słowa obowiązkowy - „obowiązkowy”. Zatem przez obowiązkową kontrolę dostępu należy rozumieć wymuszoną.

1.3.5 Kryptograficzne metody zapewnienia poufności informacji

Aby zapewnić poufność informacji, stosowane są następujące prymitywy kryptograficzne:

1. Kryptosystemy symetryczne.

W symetrycznych kryptosystemach ten sam wspólny tajny klucz służy do szyfrowania i deszyfrowania informacji, które strony współdziałające wcześniej wymieniają się jakimś bezpiecznym kanałem.

Przykładami symetrycznych kryptosystemów są krajowy algorytm GOST 28147-89, a także międzynarodowe standardy DES i AES, które go zastąpiły.

2. Kryptosystemy asymetryczne.

Kryptosystemy asymetryczne charakteryzują się tym, że używają różnych kluczy do szyfrowania i deszyfrowania informacji. Klucz szyfrowania (klucz publiczny) może zostać udostępniony publicznie, dzięki czemu każdy będzie mógł zaszyfrować wiadomość dla jakiegoś odbiorcy.

Odbiorca, będący wyłącznym właścicielem klucza deszyfrującego (tajnego klucza), będzie jedyną osobą, która będzie mogła odszyfrować zaszyfrowane dla niego wiadomości.

Przykładami asymetrycznych kryptosystemów są RSA i schemat ElGamala.

Kryptosystemy symetryczne i asymetryczne, a także różne ich kombinacje, wykorzystywane są w AS przede wszystkim do szyfrowania danych na różnych nośnikach oraz do szyfrowania ruchu.

zagrożenie sieci informacyjnej ochrony

1.3.6 Metody ochrony obwodu zewnętrznego

Podsystem ochrony obwodu zewnętrznego zautomatyzowanego systemu zwykle obejmuje dwa główne mechanizmy: narzędzia zapory ogniowej i narzędzia do wykrywania włamań. Rozwiązując powiązane problemy, mechanizmy te często są wdrażane w ramach jednego produktu i funkcjonują jako jedna całość. Jednocześnie każdy z mechanizmów jest samowystarczalny i zasługuje na osobne rozpatrzenie.

Zapora sieciowa http://www.infotecs.ru

Zapora ogniowa (FW) realizuje funkcje ograniczające przepływy informacji na granicy chronionego systemu automatycznego. To pozwala:

- zwiększać bezpieczeństwo obiektów w środowisku wewnętrznym poprzez ignorowanie nieautoryzowanych żądań ze środowiska zewnętrznego;

- kontrolować przepływ informacji do otoczenia zewnętrznego;

- zapewnić rejestrację procesów wymiany informacji.

Przepływ informacji kontrolowany jest poprzez filtrowanie informacji, tj. analizując go według zestawu kryteriów i podejmując decyzję o dystrybucji do lub z AS.

W zależności od zasad działania wyróżnia się kilka klas zapór ogniowych. Główną cechą klasyfikacyjną jest poziom modelu ISO/OSI, na którym działa ME.

1. Filtry pakietów.

Najprostsza klasa firewalli działających na poziomie sieciowym i transportowym modelu ISO/OSI. Filtrowanie pakietów odbywa się zwykle według następujących kryteriów:

- Źródłowy adres IP;

- adres IP odbiorcy;

- Port źródłowy;

- port odbiorcy;

- specyficzne parametry nagłówków pakietów sieciowych.

Filtrowanie realizowane jest poprzez porównanie wymienionych parametrów nagłówków pakietów sieciowych z bazą reguł filtrowania.

2. Bramy na poziomie sesji

Te zapory działają na poziomie sesji modelu ISO/OSI. W przeciwieństwie do filtrów pakietów, mogą kontrolować ważność sesji komunikacyjnej poprzez analizę parametrów protokołów warstwy sesji.

3. Bramy poziomu aplikacji

Zapory ogniowe tej klasy umożliwiają filtrowanie określonych typów poleceń lub zestawów danych w protokołach na poziomie aplikacji. W tym celu wykorzystywane są usługi proxy - programy specjalnego przeznaczenia, które zarządzają ruchem przez zaporę ogniową dla niektórych protokołów wysokiego poziomu (http, ftp, telnet itp.).

Procedurę korzystania z usług proxy przedstawiono w Załączniku D.

Jeżeli bez korzystania z usług proxy zostanie nawiązane połączenie sieciowe bezpośrednio pomiędzy współpracującymi stronami A i B, to w przypadku korzystania z usługi proxy pojawia się pośrednik - serwer proxy, który samodzielnie współdziała z drugim uczestnikiem wymiany informacji. Schemat ten pozwala kontrolować dopuszczalność stosowania poszczególnych poleceń protokołu wysokiego poziomu, a także filtrować dane odbierane przez serwer proxy z zewnątrz; w tym wypadku serwer proxy w oparciu o ustaloną politykę może zadecydować o możliwości lub niemożności przekazania tych danych klientowi A.

4. Zapory sieciowe na poziomie eksperckim.

Najbardziej złożone zapory ogniowe, łączące elementy wszystkich trzech powyższych kategorii. Zamiast usług proxy, takie ekrany wykorzystują algorytmy rozpoznawania i przetwarzania danych na poziomie aplikacji.

Większość obecnie używanych zapór ogniowych zalicza się do zapór specjalistycznych. Najbardziej znane i rozpowszechnione zapory ogniowe to CISCO PIX i CheckPoint FireWall-1.

Systemy wykrywania włamań

Wykrywanie włamań to proces identyfikowania nieautoryzowanego dostępu (lub próby nieautoryzowanego dostępu) do zautomatyzowanych zasobów systemu. System wykrywania włamań (IDS) to zazwyczaj kompleks oprogramowania i sprzętu, który rozwiązuje ten problem.

Istnieją dwie główne kategorie systemów IDS:

1. Identyfikatory na poziomie sieci.

W takich systemach czujnik pracuje na dedykowanym do tego celu hoście w chronionym segmencie sieci. Zazwyczaj karta sieciowa danego hosta działa w trybie mieszanym, co pozwala na analizę całego ruchu sieciowego przechodzącego przez segment.

2. Identyfikatory na poziomie hosta.

Jeśli czujnik działa na poziomie hosta, do analizy można wykorzystać następujące informacje:

- zapisy standardowych narzędzi rejestrujących system operacyjny;

- informacje o wykorzystanych zasobach;

- profile oczekiwanych zachowań użytkowników.

Każdy typ IDS ma swoje zalety i wady. IDS na poziomie sieci nie zmniejszają ogólnej wydajności systemu, ale IDS na poziomie hosta są bardziej skuteczne w identyfikowaniu ataków i pozwalają analizować aktywność związaną z pojedynczym hostem. W praktyce wskazane jest stosowanie systemów łączących oba opisane podejścia.

Trwają prace mające na celu wykorzystanie metod sztucznej inteligencji w systemach IDS. Warto zaznaczyć, że obecnie produkty komercyjne nie posiadają takich mechanizmów.

1.3.7 Rejestracja i audyt aktywnyrewizja .narod.ru

Podsystem rejestrowania i audytu jest obowiązkowym elementem każdego systemu operacyjnego. Rejestrowanie lub rejestrowanie to mechanizm odpowiedzialności systemu bezpieczeństwa informacji, który rejestruje wszystkie zdarzenia związane z bezpieczeństwem. Z kolei audyt to analiza zarejestrowanych informacji, mająca na celu szybką identyfikację i zapobieganie naruszeniom reżimu bezpieczeństwa informacji. Systemy wykrywania włamań na poziomie hosta można traktować jako aktywne systemy audytu.

Cel mechanizmu rejestracji i audytu:

- zapewnienie odpowiedzialności użytkowników i administratorów;

- zapewnienie możliwości odtworzenia sekwencji zdarzeń (co może być konieczne np. przy badaniu incydentów związanych z bezpieczeństwem informacji);

- wykrywanie prób naruszenia bezpieczeństwa informacji;

- dostarczanie informacji umożliwiających identyfikację i analizę problemów technicznych niezwiązanych z bezpieczeństwem.

Zarejestrowane dane umieszczane są w dzienniku rejestracyjnym, będącym uporządkowanym chronologicznie zbiorem zapisów wyników działań osób z ZA, wystarczającym do odtworzenia, przeglądania i analizowania kolejności działań w celu kontroli wyniku końcowego.

Ponieważ logi systemowe są głównym źródłem informacji do późniejszych audytów i wykrywania naruszeń bezpieczeństwa, szczególną uwagę należy zwrócić na kwestię zabezpieczenia logów systemowych przed nieuprawnioną modyfikacją. System logowania musi być zaprojektowany w taki sposób, aby żaden użytkownik (w tym administratorzy!) nie mógł dowolnie modyfikować wpisów w logach systemowych.

Nie mniej ważna jest kwestia sposobu przechowywania logów systemowych. Ponieważ pliki dziennika są przechowywane na pewnym typie nośnika, nieuchronnie pojawia się problem przekroczenia maksymalnego dopuszczalnego rozmiaru dziennika systemowego. W takim przypadku reakcja systemu może być inna, np.:

- system może zostać zablokowany do czasu usunięcia problemu z wolną przestrzenią dyskową;

- najstarsze wpisy w logach systemowych mogą być automatycznie usuwane;

- system może kontynuować pracę poprzez czasowe zawieszenie rejestrowania informacji.

Oczywiście ta druga opcja jest w większości przypadków niedopuszczalna, a sposób przechowywania logów systemowych powinien być jasno uregulowany w polityce bezpieczeństwa organizacji.

1.4 Systemy ochrony budynków przed zagrożeniami integralności

1.4.1 Zasady uczciwości

Większość mechanizmów chroniących informacje przed zagrożeniami naruszenia poufności przyczynia się w takim czy innym stopniu do zapewnienia integralności informacji. W tej sekcji omówimy bardziej szczegółowo mechanizmy specyficzne dla podsystemu integralności. Sformułujmy najpierw podstawowe zasady zapewnienia integralności sformułowane przez Clarka i Wilsona:

1. Poprawność transakcji.

Zasada nakazuje zapewnienie braku możliwości dowolnej modyfikacji danych przez użytkownika. Dane należy modyfikować wyłącznie w taki sposób, aby zachować ich integralność.

2. Uwierzytelnienie użytkownika.

Zmiany danych mogą dokonać jedynie użytkownicy posiadający uprawnienia do wykonywania odpowiednich czynności.

3. Minimalizuj uprawnienia.

Procesom należy przyznać w systemie tylko te uprawnienia, które są minimalnie wystarczające do ich wykonania.

4. Podział obowiązków.

Operacje krytyczne lub nieodwracalne wymagają udziału wielu niezależnych użytkowników.

W praktyce rozdział obowiązków można wdrożyć albo wyłącznie metodami organizacyjnymi, albo przy użyciu schematów udostępniania tajemnic kryptograficznych.

5. Audyt zdarzeń, które miały miejsce.

Zasada ta wymaga stworzenia mechanizmu odpowiedzialności użytkowników, który umożliwi śledzenie momentów naruszenia integralności informacji.

6. Obiektywna kontrola.

Konieczne jest wdrożenie operacyjnej alokacji danych, których kontrola integralności jest uzasadniona.

W rzeczywistości w większości przypadków ścisłe monitorowanie integralności wszystkich danych znajdujących się w systemie jest niepraktyczne, choćby ze względu na wydajność: monitorowanie integralności to operacja niezwykle wymagająca zasobów.

7. Zarządzanie przeniesieniem uprawnień.

Procedura przenoszenia uprawnień musi być w pełni zgodna ze strukturą organizacyjną przedsiębiorstwa.

Wymienione zasady pozwalają na utworzenie ogólnej struktury systemu ochrony przed zagrożeniami integralności (Załącznik E).

Jak widać z Załącznika E, mechanizmy kryptograficzne zapewniające integralność są zasadniczo nowe w porównaniu z usługami wykorzystywanymi do budowy systemu ochrony przed zagrożeniami naruszenia poufności.

Należy pamiętać, że mechanizmy zapewniające poprawność transakcji mogą również zawierać w zarodku prymitywy kryptograficzne.

1.4.2 Metody kryptograficzne zapewniające integralność informacji

Budując systemy ochrony przed zagrożeniami naruszenia integralności informacji, wykorzystuje się następujące prymitywy kryptograficzne:

- Podpisy cyfrowe;

- kryptograficzne funkcje skrótu;

- kody uwierzytelniające.

Podpisy cyfrowe

Podpis cyfrowy to mechanizm potwierdzający autentyczność i integralność dokumentów cyfrowych. Pod wieloma względami jest to analogia podpisu odręcznego – w szczególności podlega niemal podobnym wymaganiom:

1. Podpis cyfrowy musi umożliwiać wykazanie, że to prawowity autor, a nie ktoś inny, świadomie podpisał dokument.

2. Podpis cyfrowy musi stanowić integralną część dokumentu.

Nie powinno być możliwości oddzielenia podpisu od dokumentu i wykorzystania go do podpisywania innych dokumentów.

3. Podpis cyfrowy musi gwarantować, że podpisany dokument nie będzie mógł zostać zmieniony (w tym przez samego autora!).

4. Fakt podpisania dokumentu musi być prawnie udowodniony. Nie można odmówić autorstwa podpisanego dokumentu.

W najprostszym przypadku do realizacji podpisu cyfrowego można zastosować mechanizm podobny do kryptosystemu asymetrycznego. Różnica będzie taka, że ​​do szyfrowania (którym w tym przypadku jest podpisywanie) będzie używany tajny klucz, a do deszyfrowania, które pełni rolę weryfikacji podpisu, wykorzystany zostanie powszechnie znany klucz publiczny.

Procedura użycia podpisu cyfrowego w tym przypadku będzie następująca:

1. Dokument szyfrowany jest kluczem prywatnym podpisującego, a zaszyfrowana kopia jest rozpowszechniana wraz z oryginałem dokumentu w postaci podpisu cyfrowego.

2. Odbiorca za pomocą publicznego klucza publicznego podpisującego odszyfrowuje podpis, porównuje go z oryginałem i weryfikuje poprawność podpisu.

Łatwo sprawdzić, że ta implementacja podpisu cyfrowego w pełni spełnia wszystkie powyższe wymagania, ale jednocześnie ma zasadniczą wadę: objętość przesyłanego komunikatu jest co najmniej dwukrotnie większa. Zastosowanie funkcji skrótu pozwala pozbyć się tej wady.

Kryptograficzne funkcje skrótu

Funkcja w postaci y=f(x) nazywana jest kryptograficzną funkcją skrótu, jeżeli spełnia następujące właściwości:

1. Dane wejściowe funkcji skrótu mogą być sekwencją danych o dowolnej długości, ale wynik (zwany skrótem lub skrótem) ma stałą długość.

2. Wartość y z podanej wartości x oblicza się w czasie wielomianowym, a wartość x z podanej wartości y w prawie wszystkich przypadkach jest niemożliwa do obliczenia.

3. Znalezienie dwóch wejściowych wartości skrótu, które dają identyczne wartości skrótu, jest obliczeniowo niemożliwe.

4. Przy obliczaniu skrótu wykorzystywane są wszystkie informacje zawarte w sekwencji wejściowej.

5. Opis funkcji jest jawny i publicznie dostępny.

Pokażmy, jak można wykorzystać funkcje skrótu w schematach podpisu cyfrowego. Jeśli podpiszesz nie samą wiadomość, ale jej skrót, możesz znacznie zmniejszyć ilość przesyłanych danych.

Podpisując jego skrót zamiast oryginalnej wiadomości, przesyłamy wynik wraz z oryginalną wiadomością. Odbiorca odszyfrowuje podpis i porównuje wynik z hashem wiadomości. Jeżeli występuje zgodność, uznaje się, że podpis jest prawidłowy.

2 . Oprogramowanie zabezpieczające informacje w CS

Oprogramowanie zabezpieczające informacje oznacza specjalne programy zawarte w oprogramowaniu CS wyłącznie w celu wykonywania funkcji ochronnych.

Do głównych narzędzi programowych zapewniających bezpieczeństwo informacji należą:

* programy identyfikacji i uwierzytelniania dla użytkowników CS;

* programy ograniczające dostęp użytkowników do zasobów CS;

* programy szyfrujące informacje;

* programy zabezpieczające zasoby informacyjne (oprogramowanie systemowe i aplikacyjne, bazy danych, komputerowe narzędzia szkoleniowe itp.) przed nieuprawnioną modyfikacją, wykorzystaniem i kopiowaniem.

Należy rozumieć, że przez identyfikację, w odniesieniu do zapewnienia bezpieczeństwa informacyjnego systemu komputerowego, mamy na myśli jednoznaczne rozpoznanie unikalnej nazwy podmiotu systemu komputerowego. Uwierzytelnienie oznacza potwierdzenie, że prezentowane imię odpowiada danemu podmiotowi (potwierdzenie autentyczności przedmiotu) 8 Biyachuev T.A. Bezpieczeństwo sieci korporacyjnych. Podręcznik / wyd. L.G. Osovetsky – St.Petersburg: Uniwersytet Państwowy w Petersburgu ITMO, 2004, s. 64. .

Oprogramowanie zabezpieczające informacje obejmuje również:

* programy do niszczenia pozostałych informacji (w blokach pamięci RAM, plikach tymczasowych itp.);

* programy audytów (prowadzenie logów) zdarzeń związanych z bezpieczeństwem CS w celu zapewnienia możliwości odzyskania i udokumentowania faktu wystąpienia tych zdarzeń;

* programy symulujące pracę z gwałcicielem (odwracanie jego uwagi w celu uzyskania rzekomo poufnych informacji);

* testuj programy kontrolne pod kątem bezpieczeństwa CS itp.

Zalety oprogramowania zabezpieczającego informacje obejmują:

* łatwość replikacji;

* elastyczność (możliwość dostosowania do różnych warunków aplikacji, z uwzględnieniem specyfiki zagrożeń bezpieczeństwa informacji konkretnego CS);

* łatwość użycia - niektóre narzędzia programowe, np. szyfrowanie, działają w trybie „przezroczystym” (niewidocznym dla użytkownika), inne natomiast nie wymagają od użytkownika żadnych nowych (w porównaniu do innych programów) umiejętności;

* praktycznie nieograniczone możliwości ich rozwoju poprzez wprowadzanie zmian uwzględniających nowe zagrożenia bezpieczeństwa informacji.

Wady oprogramowania zabezpieczającego informacje obejmują:

* zmniejszenie efektywności CS ze względu na zużycie jego zasobów niezbędnych do funkcjonowania programów ochronnych;

* niższa wydajność (w porównaniu do sprzętowych narzędzi zabezpieczających, które realizują podobne funkcje, takie jak szyfrowanie);

* dokowanie wielu narzędzi ochrony oprogramowania (a nie ich osadzenie w oprogramowaniu CS, rys. 4 i 5), co stwarza zasadniczą możliwość obejścia ich przez intruza;

* możliwość złośliwych zmian w ochronie oprogramowania podczas działania CS.

2 .1 Bezpieczeństwo na poziomie systemu operacyjnego

System operacyjny jest najważniejszym elementem oprogramowania każdego komputera, dlatego ogólne bezpieczeństwo systemu informatycznego w dużej mierze zależy od poziomu wdrożenia polityki bezpieczeństwa w każdym konkretnym systemie operacyjnym.

System operacyjny MS-DOS jest systemem operacyjnym działającym w trybie rzeczywistym mikroprocesora Intel, dlatego nie można mówić o współdzieleniu pamięci RAM między procesami. Wszystkie programy rezydentne i program główny korzystają z tej samej przestrzeni RAM. Nie ma ochrony plików, trudno powiedzieć coś konkretnego na temat bezpieczeństwa sieci, ponieważ na tym etapie rozwoju oprogramowania sterowniki interakcji sieciowej zostały opracowane nie przez firmę MicroSoft, ale przez zewnętrznych programistów.

Rodzina systemów operacyjnych Windows 95, 98, Millennium to klony, które zostały pierwotnie zaprojektowane do użytku na komputerach domowych. Te systemy operacyjne korzystają z poziomów uprawnień trybu chronionego, ale nie wykonują żadnych dodatkowych kontroli ani nie obsługują systemów deskryptorów zabezpieczeń. W rezultacie każda aplikacja może uzyskać dostęp do całej ilości dostępnej pamięci RAM, zarówno z uprawnieniami do odczytu, jak i zapisu. Istnieją środki bezpieczeństwa sieci, jednak ich wdrożenie nie jest na równi. Co więcej, w wersji Windows 95 popełniono zasadniczy błąd, który umożliwiał zdalne spowodowanie zawieszenia komputera w zaledwie kilku pakietach, co również znacząco podważyło reputację systemu operacyjnego; w kolejnych wersjach podejmowano wiele kroków w celu poprawy bezpieczeństwo sieci tego klona Zima V., Mołdawian A., Mołdawian N. Bezpieczeństwo globalnych technologii sieciowych. Seria „Mistrz”. - St.Petersburg: BHV-Petersburg, 2001, s. 25. 124. .

Generacja systemów operacyjnych Windows NT, 2000 jest już znacznie bardziej niezawodnym rozwinięciem firmy Microsoft. Są to prawdziwie wieloużytkownikowe systemy, które niezawodnie chronią pliki różnych użytkowników na dysku twardym (jednak dane nie są szyfrowane, a pliki można bez problemów odczytać, uruchamiając się z dysku innego systemu operacyjnego - na przykład MS-DOS) . Te systemy operacyjne aktywnie korzystają z możliwości trybu chronionego procesorów Intel i mogą niezawodnie chronić dane i kod procesu przed innymi programami, chyba że sam proces chce zapewnić do nich dodatkowy dostęp spoza procesu.

Przez długi okres rozwoju wzięto pod uwagę wiele różnych ataków sieciowych i błędów bezpieczeństwa. Poprawki do nich zostały wydane w postaci dodatków Service Pack.

Podobne dokumenty

    Studium podstawowych metod ochrony przed zagrożeniami poufności, integralności i dostępności informacji. Szyfrowanie plików będących własnością poufną. Używanie podpisu cyfrowego, haszowanie dokumentów. Ochrona przed atakami sieciowymi w Internecie.

    praca na kursie, dodano 13.12.2015

    Klasyfikacja informacji ze względu na znaczenie. Kategorie poufności i integralności informacji chronionych. Pojęcie bezpieczeństwa informacji, źródła zagrożeń informacyjnych. Obszary ochrony informacji. Kryptograficzne metody ochrony oprogramowania.

    praca na kursie, dodano 21.04.2015

    Koncepcja ochrony celowych zagrożeń integralności informacji w sieciach komputerowych. Charakterystyka zagrożeń bezpieczeństwa informacji: kompromis, zakłócenie świadczenia usług. Charakterystyka NPO Mekhinstrument LLC, główne metody i metody bezpieczeństwa informacji.

    teza, dodana 16.06.2012

    Problemy bezpieczeństwa informacji w sieciach informatycznych i telekomunikacyjnych. Badanie zagrożeń informacji i sposobów ich oddziaływania na obiekty bezpieczeństwa informacji. Koncepcje bezpieczeństwa informacji w przedsiębiorstwie. Kryptograficzne metody ochrony informacji.

    praca magisterska, dodana 08.03.2013

    Konieczność ochrony informacji. Rodzaje zagrożeń bezpieczeństwa IP. Główne kierunki ochrony sprzętu stosowane w zautomatyzowanych technologiach informatycznych. Transformacje kryptograficzne: szyfrowanie i kodowanie. Bezpośrednie kanały wycieku danych.

    praca na kursie, dodano 22.05.2015

    Pojęcie bezpieczeństwa informacji, pojęcie i klasyfikacja, rodzaje zagrożeń. Charakterystyka środków i metod ochrony informacji przed zagrożeniami przypadkowymi i nieuprawnioną ingerencją. Kryptograficzne metody ochrony informacji i firewalle.

    praca na kursie, dodano 30.10.2009

    Rodzaje celowych zagrożeń bezpieczeństwa informacji. Metody i środki bezpieczeństwa informacji. Metody i środki zapewnienia bezpieczeństwa informacji. Kryptograficzne metody ochrony informacji. Kompleksowe środki ochrony.

    streszczenie, dodano 17.01.2004

    Rozwój nowych technologii informatycznych i powszechna informatyzacja. Bezpieczeństwo informacji. Klasyfikacja celowych zagrożeń bezpieczeństwa informacji. Metody i środki bezpieczeństwa informacji. Kryptograficzne metody ochrony informacji.

    praca na kursie, dodano 17.03.2004

    Koncepcja zapewnienia bezpieczeństwa informacji w Neurosoft LLC; opracowanie kompleksowego systemu ochrony. Przedmioty informacyjne firmy, stopień ich poufności, wiarygodności, integralności; identyfikacja źródeł zagrożeń i ryzyka, dobór środków ochrony.

    praca na kursie, dodano 23.05.2013

    Główne rodzaje zagrożeń bezpieczeństwa systemów informacji gospodarczej. Narażenie na złośliwe oprogramowanie. Szyfrowanie jako główna metoda ochrony informacji. Podstawa prawna zapewnienia bezpieczeństwa informacji. Istota metod kryptograficznych.

Pod oprogramowanie zabezpieczające informacje rozumieć specjalne programy zawarte w oprogramowaniu CS wyłącznie w celu wykonywania funkcji ochronnych.

Do głównych narzędzi programowych zapewniających bezpieczeństwo informacji należą:

Programy do identyfikacji i uwierzytelniania użytkowników CS;

Programy ograniczające dostęp użytkowników do zasobów CS;

Programy do szyfrowania informacji;

Programy służące do ochrony zasobów informacyjnych (oprogramowanie systemowe i aplikacyjne, bazy danych, komputerowe narzędzia szkoleniowe itp.) przed nieuprawnioną modyfikacją, wykorzystaniem i kopiowaniem.

Zauważ, że pod identyfikacja, w związku z zapewnieniem bezpieczeństwa informacji CS rozumieją jednoznaczne uznanie unikalnej nazwy podmiotu CS. Uwierzytelnianie oznacza potwierdzenie, że przedstawiona nazwa odpowiada danemu przedmiotowi (potwierdzenie autentyczności przedmiotu).

Przykłady oprogramowania pomocniczego zabezpieczającego informacje:

Programy do niszczenia pozostałych informacji (w blokach RAM, plikach tymczasowych itp.);

Programy audytów (prowadzenie logów) zdarzeń związanych z bezpieczeństwem CS w celu zapewnienia możliwości odzyskania i potwierdzenia faktu wystąpienia tych zdarzeń;

Programy do symulowania pracy z gwałcicielem (odwracanie jego uwagi w celu uzyskania rzekomo poufnych informacji);

Testuj programy kontrolne pod kątem bezpieczeństwa CS itp.

Zalety oprogramowania zabezpieczającego informacje obejmują:

Łatwość replikacji;

Elastyczność (możliwość dostosowania do różnych warunków aplikacji, z uwzględnieniem specyfiki zagrożeń bezpieczeństwa informacji konkretnego CS);

Łatwość obsługi - niektóre narzędzia programowe, np. szyfrowanie, działają w trybie „przezroczystym” (niewidocznym dla użytkownika), inne natomiast nie wymagają od użytkownika żadnych nowych (w porównaniu do innych programów) umiejętności;

Praktycznie nieograniczone możliwości ich rozwoju poprzez wprowadzanie zmian uwzględniających nowe zagrożenia bezpieczeństwa informacji.

Ryż. 1.1 Przykład zadokowanego oprogramowania zabezpieczającego

Ryż. 1.2. Przykład wbudowanego oprogramowania zabezpieczającego informacje

Wady oprogramowania zabezpieczającego informacje obejmują:

Zmniejszenie efektywności CS ze względu na zużycie jego zasobów niezbędnych do funkcjonowania programów ochronnych;

Niższa wydajność (w porównaniu z zabezpieczeniami sprzętowymi, takimi jak szyfrowanie), która spełnia podobne funkcje;

dokowanie wielu narzędzi ochrony oprogramowania (a nie ich osadzenie w oprogramowaniu CS, rys. 1.1 i 1.2), co stwarza podstawową możliwość ich ominięcia przez intruza;



Możliwość złośliwej modyfikacji zabezpieczeń oprogramowania podczas działania CS.

2.2.4 „Uwierzytelnianie użytkownika”

Uwierzytelnianie użytkowników w oparciu o hasła i model uzgadniania

Przy wyborze haseł użytkownicy CS muszą kierować się dwiema, zasadniczo wykluczającymi się, zasadami - hasła muszą być trudne do wybrania i łatwe do zapamiętania (hasło bowiem w żadnym wypadku nie powinno być nigdzie zapisywane, gdyż w tym przypadku konieczne będzie dodatkowo rozwiązują problem ochrony nośnika hasła).

O złożoności odgadnięcia hasła decyduje przede wszystkim siła zestawu znaków używanych przy wyborze hasła (N), oraz minimalną możliwą długość hasła (Do). W takim przypadku liczbę różnych haseł można oszacować poniżej jako С р = Nk. Na przykład, jeśli wiele znaków w haśle składa się z małych liter łacińskich, a minimalna długość hasła wynosi 3, to C p = 26 3 = 17576 (co jest całkiem sporo, jeśli chodzi o wybór oprogramowania). Jeśli zestaw znaków hasła składa się z małych i dużych liter łacińskich oraz cyfr, a minimalna długość hasła wynosi 6, to C p = 62 6 = 56800235584.

Stopień złożoności haseł wybieranych przez użytkowników CS powinien zostać ustawiony przez administratora przy wdrażaniu polityki bezpieczeństwa ustalonej dla tego systemu. Inne ustawienia zasad konta podczas korzystania z uwierzytelniania hasłem powinny być:

Maksymalny okres ważności hasła (żadnego sekretu nie można zachować w tajemnicy na zawsze);

Hasło nie jest zgodne z logiczną nazwą użytkownika, pod którą jest zarejestrowane w CS;

Zakaz powtarzania haseł dla jednego użytkownika.

Wymóg, aby hasła nie były powtarzalne, można wdrożyć na dwa sposoby. W pierwszej kolejności możesz ustawić minimalny termin ważności hasła (w przeciwnym razie użytkownik zmuszony do jego zmiany po wygaśnięciu hasła będzie mógł od razu zmienić hasło na stare). Po drugie, możesz zachować listę haseł używanych już przez danego użytkownika (maksymalną długość listy może ustawić administrator).

Niestety, za pomocą powyższych środków prawie niemożliwe jest zapewnienie rzeczywistej unikalności każdego nowego hasła wybranego przez użytkownika. Użytkownik może, bez naruszania ustalonych ograniczeń, wybrać hasła „Al”, „A2”, ... gdzie A1 jest pierwszym hasłem użytkownika spełniającym wymagania złożoności.

Możliwe jest zapewnienie akceptowalnego stopnia złożoności haseł i ich faktycznej unikalności poprzez przydzielanie haseł wszystkim użytkownikom przez administratora CS, przy jednoczesnym zakazie użytkownikowi zmiany hasła. Do generowania haseł administrator może wykorzystać programowy generator pozwalający na tworzenie haseł o różnej złożoności.

Jednakże przy tej metodzie przydzielania haseł pojawiają się problemy związane z koniecznością stworzenia bezpiecznego kanału przesyłania hasła od administratora do użytkownika, trudnością sprawdzenia, czy użytkownik zapisuje w swojej pamięci niewybrane hasło jedynie oraz istnieje ryzyko, że administrator znający hasła wszystkich użytkowników może nadużyć swoich uprawnień. Dlatego najwłaściwsze jest, aby użytkownik wybrał hasło w oparciu o zasady ustalone przez administratora, z możliwością przypisania przez administratora nowego hasła użytkownikowi, jeśli zapomni swojego hasła.

Kolejnym aspektem polityki konta użytkownika CS powinno być określenie, w jaki sposób system będzie przeciwdziałał próbom odgadnięcia hasła.

Mogą obowiązywać następujące zasady:

Ograniczanie liczby prób logowania;

Ukrycie nazwy logicznej ostatnio używanego użytkownika (znajomość nazwy logicznej może pomóc atakującemu w znalezieniu lub odgadnięciu jego hasła);

Zapis wszystkich prób logowania (udanych i nieudanych) w dzienniku audytu.

Reakcją systemu na nieudaną próbę logowania użytkownika może być:

Zablokowanie konta, w ramach którego podejmowana jest próba logowania, w przypadku przekroczenia maksymalnej możliwej liczby prób (na określony czas lub do czasu ręcznego usunięcia blokady przez administratora);

Coraz większe opóźnienie czasowe, zanim użytkownik otrzyma kolejną próbę logowania.

Podczas pierwszego wprowadzania lub zmiany hasła użytkownika obowiązują zazwyczaj dwie klasyczne zasady:

Znaki wprowadzonego hasła nie są wyświetlane na ekranie (ta sama zasada dotyczy użytkownika wprowadzającego hasło podczas logowania do systemu);

Aby potwierdzić, że hasło zostało wprowadzone prawidłowo (z uwzględnieniem pierwszej zasady), wpis ten powtarza się dwukrotnie.

Aby przechowywać hasła, można je wstępnie zaszyfrować lub zaszyfrować.

Szyfrowanie haseł ma dwie wady:

Ponieważ szyfrowanie wymaga użycia klucza, konieczne jest zapewnienie jego bezpiecznego przechowywania w CS (znajomość klucza szyfrującego hasło pozwoli na jego odszyfrowanie i nieuprawniony dostęp do informacji);

Istnieje niebezpieczeństwo odszyfrowania dowolnego hasła i uzyskania go w postaci zwykłego tekstu.

Haszowanie jest nieodwracalną transformacją i znajomość wartości skrótu hasła nie pozwoli atakującemu uzyskać go w postaci zwykłego tekstu (będzie mógł jedynie spróbować odgadnąć hasło za pomocą znanej funkcji mieszającej). Dlatego znacznie bezpieczniejsze jest przechowywanie haseł w formie zaszyfrowanej. Wadą jest to, że nie ma nawet teoretycznej możliwości odzyskania zapomnianego hasła użytkownika.

Drugi przykład opiera się na uwierzytelnianiu modele uścisku dłoni. Rejestrując się w CS, użytkownik otrzymuje zestaw małych obrazków (np. piktogramów), z których musi wybrać określoną liczbę obrazków. Kiedy następnym razem się zaloguje, zostanie mu wyświetlony inny zestaw obrazów, z których część widział podczas rejestracji. Do poprawnego uwierzytelnienia użytkownik musi zaznaczyć zdjęcia, które wybrał podczas rejestracji.

Zalety uwierzytelniania uściskiem dłoni w porównaniu z uwierzytelnianiem hasłem:

Pomiędzy użytkownikiem a systemem nie są przesyłane żadne poufne informacje, które należy zachować w tajemnicy, I

Każda kolejna sesja logowania użytkownika różni się od poprzedniej, więc nawet długotrwałe monitorowanie tych sesji nic nie da atakującemu.

Do wad uwierzytelniania opartego na modelu uzgadniania należy dłuższy czas trwania tej procedury w porównaniu z uwierzytelnianiem hasłem.

Uwierzytelnianie użytkowników na podstawie ich cech biometrycznych

Główne cechy biometryczne użytkowników CS, które można wykorzystać do uwierzytelnienia, obejmują:

Odciski palców;

Geometryczny kształt dłoni;

Wzór tęczówki;

Rysunek siatkówki;

Geometryczny kształt i wielkość twarzy;

Geometryczny kształt i rozmiar ucha itp.

Najpopularniejsze są programowe i sprzętowe sposoby uwierzytelniania użytkowników za pomocą ich odcisków palców. Do odczytania tych odcisków palców zwykle wykorzystuje się klawiatury i myszy wyposażone w specjalne skanery. Obecność wystarczająco dużych banków danych zawierających odciski palców obywateli jest głównym powodem dość powszechnego stosowania takich środków uwierzytelniania w agencjach rządowych, a także w dużych organizacjach komercyjnych. Wadą takich narzędzi jest potencjalne wykorzystanie odcisków palców użytkowników do kontroli ich prywatności.

Jeżeli z przyczyn obiektywnych (np. ze względu na zanieczyszczenie lokalu, w którym przeprowadzana jest uwierzytelnianie) nie jest możliwe uzyskanie wyraźnego odcisku palca, wówczas można zastosować uwierzytelnienie w oparciu o geometryczny kształt dłoni użytkownika. W takim przypadku skanery można zainstalować na ścianie pokoju.

Najbardziej niezawodne (ale także najdroższe) sposoby uwierzytelniania użytkownika opierają się na charakterystyce oka (wzór tęczówki lub wzór siatkówki). Prawdopodobieństwo nawrotu tych objawów szacuje się na 10 -78.

Najtańsze (ale i najmniej niezawodne) metody uwierzytelniania opierają się na geometrycznym kształcie i rozmiarze twarzy użytkownika lub barwie jego głosu. Dzięki temu narzędzia te mogą być używane do uwierzytelniania podczas zdalnego dostępu użytkownika do CS.

Główne zalety uwierzytelniania użytkowników w oparciu o ich cechy biometryczne;

Trudność fałszowania tych znaków;

Wysoka niezawodność uwierzytelniania dzięki unikalności takich cech;

Nierozłączność cech biometrycznych z tożsamością użytkownika.

Do porównania uwierzytelnienia użytkownika na podstawie określonych cech biometrycznych wykorzystuje się szacunki prawdopodobieństwa wystąpienia błędów pierwszego i drugiego rodzaju. Prawdopodobieństwo błędu I rodzaju (odmowa dostępu do CS legalnemu użytkownikowi) wynosi 10 -6...10 -3. Prawdopodobieństwo wystąpienia błędu drugiego rodzaju (umożliwiającego pracę w CS niezarejestrowanemu użytkownikowi) we współczesnych systemach uwierzytelniania biometrycznego wynosi 10 -5...10 -2.

Powszechną wadą sposobów uwierzytelniania użytkowników CS na podstawie ich cech biometrycznych jest ich wyższy koszt w porównaniu z innymi sposobami uwierzytelniania, co wynika przede wszystkim z konieczności zakupu dodatkowego sprzętu. Metody uwierzytelniania oparte na specyfice pisma odręcznego klawiatury i wzorcach myszy użytkowników nie wymagają użycia specjalnego sprzętu.

Uwierzytelnianie użytkowników na podstawie pisma odręcznego na klawiaturze i pisma myszy

S.P. Rastorguev jako jeden z pierwszych zaproponował pomysł uwierzytelniania użytkowników na podstawie charakterystyki ich pracy z klawiaturą i myszą. Opracowując matematyczny model uwierzytelniania w oparciu o charakter pisma użytkownika na klawiaturze, założono, że odstępy czasowe pomiędzy naciśnięciami sąsiadujących ze sobą symboli frazy kluczowej oraz pomiędzy naciśnięciem określonych w niej kombinacji klawiszy podlegają prawu rozkładu normalnego. Istotą tej metody uwierzytelniania jest sprawdzenie hipotezy o równości ośrodków dystrybucyjnych dwóch normalnych populacji ogólnych (uzyskanej podczas konfigurowania systemu pod kątem charakterystyki użytkownika i podczas jego uwierzytelniania).

Rozważmy możliwość uwierzytelnienia użytkownika poprzez wpisanie frazy kluczowej (to samo w trybach konfiguracji i uwierzytelniania).

Procedura ustawiania cech użytkownika zarejestrowanego w CS:

1) wybór przez użytkownika frazy kluczowej (jej symbole muszą być równomiernie rozmieszczone na klawiaturze);

2) kilkukrotne wpisanie frazy kluczowej;

3) wykluczenie błędów rażących (za pomocą specjalnego algorytmu);

4) obliczanie i przechowywanie oszacowań matematycznych oczekiwań, wariancji i liczby obserwacji dla przedziałów czasowych pomiędzy zbiorami każdej pary sąsiednich symboli frazy kluczowej.

Wiarygodność uwierzytelnienia na podstawie pisma użytkownika na klawiaturze jest niższa niż przy wykorzystaniu jego cech biometrycznych.

Jednak ta metoda uwierzytelniania ma również swoje zalety:

Możliwość ukrycia faktu stosowania dodatkowego uwierzytelnienia użytkownika w przypadku, gdy jako frazę kluczową zostanie użyte wprowadzone przez użytkownika hasło;

Możliwość wdrożenia tej metody wyłącznie przy użyciu oprogramowania (obniżenie kosztów narzędzi uwierzytelniających).

Przyjrzyjmy się teraz metodzie uwierzytelniania opartej na malowanie myszy(za pomocą tego manipulatora oczywiście nie da się wykonać prawdziwego malowania użytkownika, więc malowanie to będzie dość prostym pociągnięciem). Linię malowania nazwijmy linią łamaną uzyskaną poprzez połączenie punktów od początku malowania do jego zakończenia (punkty sąsiadujące nie powinny mieć tych samych współrzędnych). Długość linii malowania obliczamy jako sumę długości odcinków łączących punkty obrazu.

Podobnie jak w przypadku uwierzytelniania opartego na piśmie z klawiatury, autentyczność użytkownika poprzez jego podpis myszką potwierdza przede wszystkim tempo jego pracy z tym urządzeniem wejściowym.

Zalety uwierzytelniania użytkowników za pomocą pisma myszowego, podobnie jak w przypadku pisma odręcznego na klawiaturze, obejmują możliwość wdrożenia tej metody wyłącznie przy użyciu oprogramowania; Wadami są niższa niezawodność uwierzytelniania w porównaniu z wykorzystaniem biometrycznych cech użytkownika, a także konieczność posiadania przez użytkownika dość pewnych umiejętności obsługi myszy.

Wspólną cechą metod uwierzytelniania opartych na piśmie klawiaturowym i myszkowym jest niestabilność ich charakterystyk dla tego samego użytkownika, co może być spowodowane:

1) naturalne zmiany związane z poprawą umiejętności użytkownika w zakresie obsługi klawiatury i myszy lub odwrotnie, z ich pogorszeniem na skutek starzenia się organizmu;

2) zmiany związane z nieprawidłowym stanem fizycznym lub emocjonalnym użytkownika.

Zmiany cech użytkownika spowodowane przyczynami pierwszego rodzaju nie są nagłe i dlatego można je zneutralizować poprzez zmianę charakterystyki referencyjnej po każdym pomyślnym uwierzytelnieniu użytkownika.

Zmiany w cechach użytkownika spowodowane przyczynami drugiego typu mogą być nagłe i prowadzić do odrzucenia jego próby wejścia do CS. Jednak ta funkcja uwierzytelniania w oparciu o pismo odręczne na klawiaturze i myszce może stać się zaletą również w przypadku użytkowników systemów komputerowych do celów wojskowych, energetycznych i finansowych.

Obiecującym kierunkiem rozwoju metod uwierzytelniania użytkowników CS na podstawie ich cech osobowych może być potwierdzenie autentyczności użytkownika w oparciu o jego wiedzę i umiejętności charakteryzujące poziom wykształcenia i kultury.

Oprogramowanie zabezpieczające informacje oznacza specjalne programy zawarte w oprogramowaniu CS wyłącznie w celu wykonywania funkcji ochronnych.

Do głównych narzędzi programowych zapewniających bezpieczeństwo informacji należą:

  • * programy identyfikacji i uwierzytelniania dla użytkowników CS;
  • * programy ograniczające dostęp użytkowników do zasobów CS;
  • * programy szyfrujące informacje;
  • * programy zabezpieczające zasoby informacyjne (oprogramowanie systemowe i aplikacyjne, bazy danych, komputerowe narzędzia szkoleniowe itp.) przed nieuprawnioną modyfikacją, wykorzystaniem i kopiowaniem.

Należy rozumieć, że przez identyfikację, w odniesieniu do zapewnienia bezpieczeństwa informacyjnego systemu komputerowego, mamy na myśli jednoznaczne rozpoznanie unikalnej nazwy podmiotu systemu komputerowego. Uwierzytelnienie oznacza potwierdzenie, że przedstawione imię i nazwisko odpowiada danemu podmiotowi (potwierdzenie autentyczności przedmiotu)5.

Oprogramowanie zabezpieczające informacje obejmuje również:

  • * programy do niszczenia pozostałych informacji (w blokach pamięci RAM, plikach tymczasowych itp.);
  • * programy audytów (prowadzenie logów) zdarzeń związanych z bezpieczeństwem CS w celu zapewnienia możliwości odzyskania i udokumentowania faktu wystąpienia tych zdarzeń;
  • * programy symulujące pracę z gwałcicielem (odwracanie jego uwagi w celu uzyskania rzekomo poufnych informacji);
  • * testuj programy kontrolne pod kątem bezpieczeństwa CS itp.

Zalety oprogramowania zabezpieczającego informacje obejmują:

  • * łatwość replikacji;
  • * elastyczność (możliwość dostosowania do różnych warunków aplikacji, z uwzględnieniem specyfiki zagrożeń bezpieczeństwa informacji konkretnego CS);
  • * łatwość użycia - niektóre narzędzia programowe, np. szyfrowanie, działają w trybie „przezroczystym” (niewidocznym dla użytkownika), inne natomiast nie wymagają od użytkownika żadnych nowych (w porównaniu do innych programów) umiejętności;
  • * praktycznie nieograniczone możliwości ich rozwoju poprzez wprowadzanie zmian uwzględniających nowe zagrożenia bezpieczeństwa informacji.

Ryż. 4

Ryż. 5

Wady oprogramowania zabezpieczającego informacje obejmują:

  • * zmniejszenie efektywności CS ze względu na zużycie jego zasobów niezbędnych do funkcjonowania programów ochronnych;
  • * niższa wydajność (w porównaniu do sprzętowych narzędzi zabezpieczających, które realizują podobne funkcje, takie jak szyfrowanie);
  • * dokowanie wielu narzędzi ochrony oprogramowania (a nie ich rozmieszczenie w oprogramowaniu CS, rys. 4 i 5), co stwarza zasadniczą możliwość ich ominięcia przez intruza;
  • * możliwość złośliwych zmian w ochronie oprogramowania podczas działania CS.

Bezpieczeństwo na poziomie systemu operacyjnego

System operacyjny jest najważniejszym elementem oprogramowania każdego komputera, dlatego ogólne bezpieczeństwo systemu informatycznego w dużej mierze zależy od poziomu wdrożenia polityki bezpieczeństwa w każdym konkretnym systemie operacyjnym.

Rodzina systemów operacyjnych Windows 2000 i Millenium to klony, początkowo przeznaczone do pracy na komputerach domowych. Te systemy operacyjne korzystają z poziomów uprawnień trybu chronionego, ale nie wykonują żadnych dodatkowych kontroli ani nie obsługują systemów deskryptorów zabezpieczeń. W rezultacie każda aplikacja może uzyskać dostęp do całej ilości dostępnej pamięci RAM, zarówno z uprawnieniami do odczytu, jak i zapisu. Istnieją środki bezpieczeństwa sieci, jednak ich wdrożenie nie jest na równi. Co więcej, w wersji Windows XP popełniono zasadniczy błąd, który umożliwiał zdalne spowodowanie zawieszenia komputera w zaledwie kilku pakietach, co również znacząco podważyło reputację systemu operacyjnego; w kolejnych wersjach podjęto wiele kroków w celu poprawić bezpieczeństwo sieci tego klonu6.

Generacja systemów operacyjnych Windows Vista, 7 jest już znacznie bardziej niezawodnym rozwinięciem firmy Microsoft. Są to prawdziwie wieloużytkownikowe systemy, które niezawodnie chronią pliki różnych użytkowników na dysku twardym (jednak dane nie są szyfrowane, a pliki można bez problemów odczytać, uruchamiając się z dysku innego systemu operacyjnego - na przykład MS-DOS) . Te systemy operacyjne aktywnie korzystają z możliwości trybu chronionego procesorów Intel i mogą niezawodnie chronić dane i kod procesu przed innymi programami, chyba że sam proces chce zapewnić do nich dodatkowy dostęp spoza procesu.

Przez długi okres rozwoju wzięto pod uwagę wiele różnych ataków sieciowych i błędów bezpieczeństwa. Poprawki do nich zostały wydane w postaci dodatków Service Pack.

Kolejna gałąź klonów wyrasta z systemu operacyjnego UNIX. Ten system operacyjny został początkowo opracowany jako system operacyjny sieciowy i dla wielu użytkowników, dlatego od razu zawierał narzędzia bezpieczeństwa informacji. Prawie wszystkie rozpowszechnione klony UNIX-a przeszły długi proces rozwoju i podczas modyfikacji uwzględniały wszystkie odkryte w tym czasie metody ataków. Sprawdziły się całkiem nieźle: LINUX (S.U.S.E.), OpenBSD, FreeBSD, Sun Solaris. Oczywiście wszystko powyższe dotyczy najnowszych wersji tych systemów operacyjnych. Główne błędy w tych systemach nie dotyczą już jądra, które działa bez zarzutu, ale narzędzi systemowych i aplikacyjnych. Obecność w nich błędów często prowadzi do utraty całego marginesu bezpieczeństwa systemu.

Główne składniki:

Lokalny administrator bezpieczeństwa - odpowiedzialny za nieautoryzowany dostęp, sprawdza uprawnienia użytkowników do logowania się do systemu, wspiera:

Audyt - sprawdzanie poprawności działań użytkowników

Account Manager - wsparcie bazodanowe użytkowników dotyczące ich działań i interakcji z systemem.

Monitor bezpieczeństwa - sprawdza, czy użytkownik posiada wystarczające uprawnienia dostępu do obiektu

Dziennik audytu - zawiera informacje o loginach użytkowników, rejestruje pracę z plikami i folderami.

Pakiet uwierzytelniający - analizuje pliki systemowe, aby upewnić się, że nie zostały zastąpione. MSV10 jest pakietem domyślnym.

Dodano system Windows XP:

możesz przypisywać hasła do zarchiwizowanych kopii

Narzędzia do ochrony przed zamianą plików

system rozgraniczenia... poprzez podanie hasła i utworzenie konta rekordów użytkownika. Archiwizacji może dokonać użytkownik posiadający takie uprawnienia.

NTFS: kontrola dostępu do plików i folderów

W XP i 2000 istnieje pełniejsze i głębsze zróżnicowanie praw dostępu użytkowników.

EFS - zapewnia szyfrowanie i deszyfrowanie informacji (plików i folderów) w celu ograniczenia dostępu do danych.

Metody ochrony kryptograficznej

Kryptografia to nauka o zapewnieniu bezpieczeństwa danych. Poszukuje rozwiązań czterech ważnych problemów bezpieczeństwa – poufności, uwierzytelniania, integralności i kontroli uczestników. Szyfrowanie to przekształcanie danych w nieczytelną formę za pomocą kluczy szyfrująco-deszyfrujących. Szyfrowanie pozwala zapewnić poufność, utrzymując informacje w tajemnicy przed osobami, dla których nie są one przeznaczone.

Kryptografia zajmuje się poszukiwaniem i badaniem matematycznych metod przekształcania informacji (7).

Współczesna kryptografia obejmuje cztery główne sekcje:

kryptosystemy symetryczne;

kryptosystemy klucza publicznego;

systemy podpisów elektronicznych;

zarządzanie kluczami.

Główne obszary zastosowania metod kryptograficznych to przekazywanie informacji poufnych kanałami komunikacji (np. poczta elektroniczna), ustalanie autentyczności przesyłanych wiadomości, przechowywanie informacji (dokumentów, baz danych) na nośnikach w postaci zaszyfrowanej.

Szyfrowanie dysku

Zaszyfrowany dysk to plik kontenera, który może zawierać dowolne inne pliki lub programy (można je instalować i uruchamiać bezpośrednio z tego zaszyfrowanego pliku). Dysk ten jest dostępny dopiero po podaniu hasła do pliku kontenera - wtedy na komputerze pojawia się kolejny dysk, rozpoznawany przez system jako logiczny i praca z nim nie różni się niczym od pracy z każdym innym dyskiem. Po odłączeniu dysku dysk logiczny znika, staje się po prostu „niewidoczny”.

Obecnie najpopularniejszymi programami do tworzenia zaszyfrowanych dysków są DriveCrypt, BestCrypt i PGPdisk. Każdy z nich jest niezawodnie chroniony przed zdalnym włamaniem.

Cechy wspólne programów: (8)

  • - wszelkie zmiany informacji w pliku kontenera następują najpierw w pamięci RAM, tj. dysk twardy zawsze pozostaje zaszyfrowany. Nawet jeśli komputer się zawiesi, tajne dane pozostaną zaszyfrowane;
  • - programy mogą blokować ukryty dysk logiczny po pewnym czasie;
  • - wszyscy są nieufni wobec plików tymczasowych (plików wymiany). Możliwe jest zaszyfrowanie wszystkich poufnych informacji, które mogłyby znaleźć się w pliku wymiany. Bardzo skuteczną metodą ukrywania informacji przechowywanych w pliku wymiany jest jego całkowite wyłączenie, nie zapominając o zwiększeniu pamięci RAM komputera;
  • - fizyka dysku twardego jest taka, że ​​nawet jeśli na niektórych danych zostaną zapisane inne dane, poprzedni zapis nie zostanie całkowicie usunięty. Za pomocą nowoczesnej mikroskopii magnetycznej (Magnetic Force Microscopy - MFM) można je jeszcze przywrócić. Dzięki tym programom możesz bezpiecznie usunąć pliki z dysku twardego, nie pozostawiając żadnych śladów ich istnienia;
  • - wszystkie trzy programy przechowują poufne dane w bezpiecznie zaszyfrowanej formie na dysku twardym i zapewniają przejrzysty dostęp do tych danych z dowolnej aplikacji;
  • - chronią zaszyfrowane pliki kontenerów przed przypadkowym usunięciem;
  • - dobrze radzi sobie z aplikacjami trojańskimi i wirusami.

Metody identyfikacji użytkowników

Przed uzyskaniem dostępu do komputera użytkownik musi się zidentyfikować, a mechanizmy bezpieczeństwa sieciowego następnie uwierzytelnić użytkownika, czyli sprawdzić, czy użytkownik jest tym, za kogo się podaje. Zgodnie z logicznym modelem mechanizmu zabezpieczającego statki powietrzne zlokalizowane są na działającym komputerze, z którym użytkownik łączy się poprzez swój terminal lub w inny sposób. Dlatego też procedury identyfikacji, uwierzytelniania i autoryzacji przeprowadzane są na początku sesji na lokalnym komputerze stacjonarnym.

Następnie, po ustanowieniu różnych protokołów sieciowych i przed uzyskaniem dostępu do zasobów sieciowych, na niektórych zdalnych hostach można ponownie włączyć procedury identyfikacji, uwierzytelniania i autoryzacji w celu hostowania wymaganych zasobów lub usług sieciowych.

Kiedy użytkownik rozpoczyna pracę w systemie komputerowym za pomocą terminala, system pyta o jego imię i nazwisko oraz numer identyfikacyjny. Na podstawie odpowiedzi użytkownika system komputerowy go identyfikuje. W sieci bardziej naturalne jest, że obiekty nawiązujące wzajemną komunikację identyfikują się.

Hasła to tylko jeden ze sposobów weryfikacji autentyczności. Istnieją inne sposoby:

  • 1. Do dyspozycji użytkownika predefiniowane informacje: hasło, osobisty numer identyfikacyjny, zgoda na używanie specjalnych, zakodowanych fraz.
  • 2. Elementy sprzętowe będące w dyspozycji użytkownika: klucze, karty magnetyczne, mikroukłady itp.
  • 3. Charakterystyczne cechy osobowe użytkownika: odciski palców, wzór siatkówki, wielkość figury, barwa głosu i inne bardziej złożone właściwości medyczne i biochemiczne.
  • 4. Charakterystyczne techniki i cechy zachowań użytkownika w czasie rzeczywistym: cechy dynamiki, styl klawiatury, szybkość czytania, umiejętność korzystania z manipulatorów itp.
  • 5. Nawyki: korzystanie z określonych procedur komputerowych.
  • 6. Umiejętności i wiedza użytkownika wynikające z edukacji, kultury, szkolenia, pochodzenia, wychowania, nawyków itp.

Jeśli ktoś chce zalogować się do systemu komputerowego za pośrednictwem terminala lub wykonać zadanie wsadowe, system komputerowy musi uwierzytelnić użytkownika. Użytkownik z reguły sam nie weryfikuje autentyczności systemu komputerowego. Jeżeli procedura uwierzytelniania jest jednostronna, taką procedurę nazywa się jednokierunkowym uwierzytelnianiem obiektu (9).

Specjalistyczne oprogramowanie zabezpieczające informacje.

Specjalistyczne narzędzia programowe służące do ochrony informacji przed nieautoryzowanym dostępem mają na ogół lepsze możliwości i właściwości niż wbudowane narzędzia sieciowego systemu operacyjnego. Oprócz programów szyfrujących dostępnych jest wiele innych zewnętrznych narzędzi zapewniających bezpieczeństwo informacji. Spośród najczęściej wymienianych należy zwrócić uwagę na dwa poniższe systemy, które pozwalają na ograniczenie przepływu informacji.

Zapory ogniowe - zapory ogniowe (dosłownie zapora ogniowa - ściana ogniowa). Pomiędzy sieciami lokalnymi i globalnymi tworzone są specjalne serwery pośrednie, które sprawdzają i filtrują cały ruch na poziomie sieci/transportu przechodzący przez nie. Pozwala to radykalnie zmniejszyć zagrożenie nieautoryzowanym dostępem z zewnątrz do sieci korporacyjnych, ale nie eliminuje całkowicie tego zagrożenia. Bardziej bezpieczną wersją tej metody jest metoda maskowania, gdy cały ruch pochodzący z sieci lokalnej jest wysyłany w imieniu serwera firewall, dzięki czemu sieć lokalna jest praktycznie niewidoczna.

Serwery proxy (proxy - pełnomocnictwo, osoba zaufana). Cały ruch w warstwie sieci/transportu pomiędzy sieciami lokalnymi i globalnymi jest całkowicie zabroniony - po prostu nie ma routingu jako takiego, a połączenia z sieci lokalnej do sieci globalnej odbywają się za pośrednictwem specjalnych serwerów pośredniczących. Jest oczywiste, że przy tej metodzie dostęp z sieci globalnej do lokalnej staje się w zasadzie niemożliwy. Wiadomo też, że metoda ta nie zapewnia wystarczającej ochrony przed atakami na wyższym poziomie – np. na poziomie aplikacji (wirusy, kod Java i JavaScript).

Przyjrzyjmy się bliżej działaniu zapory ogniowej. Jest to metoda ochrony sieci przed zagrożeniami stwarzanymi przez inne systemy i sieci poprzez centralizację dostępu do sieci i kontrolowanie go za pomocą sprzętu i oprogramowania. Zapora sieciowa to bariera ochronna złożona z kilku elementów (na przykład routera lub bramy obsługującej oprogramowanie zapory). Zapora sieciowa jest skonfigurowana zgodnie z wewnętrzną polityką kontroli dostępu do sieci organizacji. Wszystkie pakiety przychodzące i wychodzące muszą przechodzić przez zaporę, która przepuszcza tylko autoryzowane pakiety.

Zapora filtrująca pakiety to router lub komputer z oprogramowaniem skonfigurowanym do odrzucania określonych typów pakietów przychodzących i wychodzących. Filtrowanie pakietów odbywa się w oparciu o informacje zawarte w nagłówkach TCP i IP pakietów (adresy nadawcy i odbiorcy, ich numery portów itp.).

Zapora sieciowa na poziomie eksperckim – sprawdza zawartość odebranych pakietów na trzech poziomach modelu OSI – sieciowym, sesyjnym i aplikacyjnym. Aby wykonać to zadanie, używane są specjalne algorytmy filtrowania pakietów, które porównują każdy pakiet ze znanym wzorcem autoryzowanych pakietów.

Utworzenie firewalla wiąże się z rozwiązaniem problemu ekranowania. Formalne sformułowanie problemu przesiewowego jest następujące. Niech będą dwa zestawy systemów informatycznych. Ekran służy do ograniczania dostępu klientów z jednego zestawu do serwerów z innego zestawu. Ekran realizuje swoje funkcje poprzez kontrolowanie wszelkich przepływów informacji pomiędzy dwoma zestawami systemów (rys. 6). Sterowanie strumieniem polega na ich filtrowaniu, ewentualnie wykonywaniu pewnych przekształceń.

Na wyższym poziomie szczegółowości wygodnie jest pomyśleć o ekranie (membranie półprzepuszczalnej) jako o szeregu filtrów. Każdy z filtrów po przeanalizowaniu danych może je opóźnić (nie przeoczyć) lub od razu „wyrzucić” z ekranu. Dodatkowo istnieje możliwość transformacji danych, przekazania części danych do kolejnego filtra w celu kontynuacji analizy lub przetworzenia danych w imieniu odbiorcy i zwrócenia wyniku nadawcy (rys. 7).


Ryż. 7

Oprócz funkcji kontroli dostępu ekrany rejestrują wymianę informacji.

Zwykle ekran nie jest symetryczny, dla niego definiuje się pojęcia „wewnątrz” i „na zewnątrz”. W tym przypadku zadanie ekranowania formułuje się jako ochronę obszaru wewnętrznego przed potencjalnie wrogim obszarem zewnętrznym. Dlatego firewalle (FiW) instalowane są najczęściej w celu ochrony sieci korporacyjnej organizacji, która ma dostęp do Internetu.

Ekranowanie pomaga utrzymać dostępność usług domeny wewnętrznej poprzez zmniejszenie lub wyeliminowanie obciążenia spowodowanego aktywnością zewnętrzną. Luka w zabezpieczeniach wewnętrznych służb bezpieczeństwa jest zmniejszona, ponieważ atakujący musi początkowo pokonać ekran, na którym szczególnie ostrożnie skonfigurowane są mechanizmy ochronne. Ponadto system ekranowania, w odróżnieniu od uniwersalnego, można zaprojektować w prostszy, a przez to bezpieczniejszy sposób.

Ekranowanie pozwala także kontrolować przepływ informacji kierowanych na obszar zewnętrzny, co pozwala zachować reżim poufności w systemie informacyjnym organizacji.

Osłona może być częściowa i chronić określone usługi informacyjne (na przykład osłonę poczty elektronicznej).

Interfejs ograniczający można również traktować jako rodzaj ekranowania. Niewidzialny cel jest trudny do zaatakowania, zwłaszcza przy użyciu stałego zestawu broni. W tym sensie interfejs sieciowy zapewnia naturalne bezpieczeństwo, zwłaszcza gdy dokumenty hipertekstowe są generowane dynamicznie. Każdy użytkownik widzi tylko to, co powinien widzieć. Można dokonać analogii pomiędzy dynamicznie generowanymi dokumentami hipertekstowymi a reprezentacjami w relacyjnych bazach danych, z istotnym zastrzeżeniem, że w przypadku sieci możliwości są znacznie szersze.

Ekranowa rola serwisu WWW ujawnia się wyraźnie wtedy, gdy usługa ta realizuje funkcje pośredniczące (dokładniej integrujące) w dostępie do innych zasobów, np. tabel bazy danych. To nie tylko kontroluje przepływ żądań, ale także ukrywa prawdziwą organizację danych.

Aspekty bezpieczeństwa architektonicznego

Z zagrożeniami występującymi w środowisku sieciowym nie da się walczyć za pomocą uniwersalnych systemów operacyjnych. Universal OS to ogromny program, który najprawdopodobniej zawiera, oprócz oczywistych błędów, pewne funkcje, które można wykorzystać do nielegalnego zdobywania uprawnień. Nowoczesna technologia programowania nie pozwala na zabezpieczenie tak dużych programów. Poza tym administrator zajmujący się złożonym systemem nie zawsze jest w stanie uwzględnić wszystkie konsekwencje wprowadzonych zmian. Wreszcie, w uniwersalnym systemie wielu użytkowników luki w zabezpieczeniach są stale tworzone przez samych użytkowników (słabe i/lub rzadko zmieniane hasła, źle ustawione prawa dostępu, terminal bez nadzoru itp.). Jedyna obiecująca droga wiąże się z rozwojem wyspecjalizowanych usług bezpieczeństwa, które dzięki swojej prostocie umożliwiają weryfikację formalną lub nieformalną. Zapora sieciowa jest właśnie takim narzędziem, pozwalającym na dalszą dekompozycję związaną z obsługą różnych protokołów sieciowych.

Zapora sieciowa znajduje się pomiędzy chronioną (wewnętrzną) siecią a środowiskiem zewnętrznym (sieciami zewnętrznymi lub innymi segmentami sieci korporacyjnej). W pierwszym przypadku mówimy o zewnętrznym ME, w drugim o wewnętrznym ME. W zależności od punktu widzenia, zewnętrzną zaporę sieciową można uznać za pierwszą lub ostatnią (ale nie jedyną) linię obrony. Po pierwsze, patrzysz na świat oczami zewnętrznego napastnika. To drugie - jeśli dążymy do ochrony wszystkich elementów sieci korporacyjnej i tłumienia nielegalnych działań użytkowników wewnętrznych.

Zapora sieciowa jest idealnym miejscem do osadzenia funkcji aktywnego audytu. Z jednej strony, zarówno na pierwszej, jak i ostatniej linii obrony, identyfikowanie podejrzanych działań jest na swój sposób ważne. Z drugiej strony ME jest w stanie zastosować dowolnie silną reakcję na podejrzane działanie, aż do zerwania połączenia ze środowiskiem zewnętrznym włącznie. Należy jednak mieć świadomość, że połączenie dwóch usług bezpieczeństwa może w zasadzie stworzyć lukę, która może ułatwić ataki na dostępność.

Wskazane jest powierzenie firewallowi identyfikacji/uwierzytelniania użytkowników zewnętrznych, którzy potrzebują dostępu do zasobów korporacyjnych (wspierając koncepcję pojedynczego logowania do sieci).

Ze względu na zasady głębokiej obrony, do ochrony połączeń zewnętrznych zwykle stosuje się ekranowanie dwuczęściowe (patrz rysunek 8). Filtrowanie podstawowe (np. blokowanie pakietów protokołu sterującego SNMP, które są niebezpieczne ze względu na ataki dostępności lub pakietów z określonymi adresami IP znajdującymi się na „czarnej liście”) realizowane jest przez router graniczny (patrz także następny rozdział) , za którą znajduje się tzw. strefa zdemilitaryzowana (sieć o umiarkowanym zaufaniu bezpieczeństwa, w której zlokalizowane są zewnętrzne usługi informacyjne organizacji - WWW, poczta elektroniczna itp.) oraz główna zapora ogniowa chroniąca wewnętrzną część sieci korporacyjnej.

Teoretycznie firewall (zwłaszcza wewnętrzny) powinien być wieloprotokołowy, jednak w praktyce dominacja rodziny protokołów TCP/IP jest na tyle duża, że ​​wspieranie innych protokołów wydaje się przesadą i godzi w bezpieczeństwo (im bardziej skomplikowana usługa , tym jest bardziej podatny na ataki).


Ryż. 8

Ogólnie rzecz biorąc, zarówno zewnętrzne, jak i wewnętrzne zapory sieciowe mogą stać się wąskim gardłem, ponieważ natężenie ruchu sieciowego ma tendencję do szybkiego wzrostu. Jednym ze sposobów rozwiązania tego problemu jest podzielenie zapory ogniowej na kilka części sprzętowych i zorganizowanie wyspecjalizowanych serwerów pośredniczących. Podstawowa zapora sieciowa może z grubsza klasyfikować ruch przychodzący według typu i delegować filtrowanie odpowiednim pośrednikom (na przykład pośrednikowi analizującemu ruch HTTP). Ruch wychodzący jest najpierw przetwarzany przez serwer pośredniczący, który może również wykonywać funkcjonalnie przydatne działania, takie jak buforowanie stron zewnętrznych serwerów internetowych, co ogólnie zmniejsza obciążenie sieci, a w szczególności głównej zapory ogniowej.

Sytuacje, w których sieć korporacyjna zawiera tylko jeden kanał zewnętrzny, są raczej wyjątkiem niż regułą. Przeciwnie, typowa sytuacja ma miejsce, gdy sieć korporacyjna składa się z kilku rozproszonych geograficznie segmentów, z których każdy jest podłączony do Internetu. W takim przypadku każde połączenie musi być chronione własnym ekranem. Mówiąc dokładniej, możemy uznać, że korporacyjna zapora zewnętrzna jest złożona i konieczne jest rozwiązanie problemu spójnego administrowania (zarządzania i audytu) wszystkimi komponentami.

Przeciwieństwem złożonych zapór korporacyjnych (lub ich komponentów) są zapory osobiste i osobiste urządzenia ochronne. Pierwszą z nich są produkty programowe, które są instalowane na komputerach osobistych i chronią tylko je. Te ostatnie są wdrażane na poszczególnych urządzeniach i chronią małą sieć lokalną, taką jak sieć w domowym biurze.

Wdrażając zapory ogniowe, należy przestrzegać zasad bezpieczeństwa architektonicznego, o których mówiliśmy wcześniej, dbając przede wszystkim o prostotę i łatwość zarządzania, poziom obrony oraz brak możliwości przejścia w stan niebezpieczny. Ponadto należy wziąć pod uwagę nie tylko zagrożenia zewnętrzne, ale także wewnętrzne.

Systemy archiwizacji i powielania

Zorganizowanie niezawodnego i wydajnego systemu archiwizacji danych jest jednym z najważniejszych zadań zapewniających bezpieczeństwo informacji w sieci. W małych sieciach, w których zainstalowany jest jeden lub dwa serwery, najczęściej stosuje się instalację systemu archiwizującego bezpośrednio w wolnych slotach serwerów. W dużych sieciach korporacyjnych najkorzystniejsze jest zorganizowanie dedykowanego, specjalizowanego serwera archiwizującego.

Serwer taki automatycznie archiwizuje informacje z dysków twardych serwerów i stacji roboczych w czasie określonym przez administratora lokalnej sieci komputerowej, wydając raport z wykonania kopii zapasowej.

Przechowywanie informacji archiwalnych o szczególnej wartości należy zorganizować w specjalnie zabezpieczonym pomieszczeniu. Eksperci zalecają przechowywanie zduplikowanych archiwów najcenniejszych danych w innym budynku na wypadek pożaru lub klęski żywiołowej. Aby zapewnić odtworzenie danych w przypadku awarii dysku magnetycznego, w ostatnim czasie najczęściej stosuje się systemy dyskowe – grupy dysków działające jako jedno urządzenie, zgodne ze standardem RAID (Redundant Arrays of Inexpensive Disks). Macierze te zapewniają najwyższą prędkość zapisu/odczytu danych, możliwość całkowitego przywrócenia danych oraz wymianę uszkodzonych dysków w trybie „gorącym” (bez odłączania pozostałych dysków macierzy).

Organizacja macierzy dyskowych przewiduje różnorodne rozwiązania techniczne realizowane na kilku poziomach:

Poziom RAID 0 po prostu dzieli strumień danych pomiędzy dwa lub więcej dysków. Zaletą tego rozwiązania jest to, że prędkość wejścia/wyjścia wzrasta proporcjonalnie do liczby dysków wchodzących w skład macierzy.

Poziom RAID 1 polega na organizowaniu tak zwanych dysków „lustrzanych”. Podczas zapisywania danych informacje znajdujące się na dysku głównym systemu są duplikowane na dysku lustrzanym, a w przypadku awarii dysku głównego natychmiast uruchamiany jest dysk „lustrzany”.

Poziomy RAID 2 i 3 umożliwiają tworzenie równoległych macierzy dyskowych, podczas zapisu, do których dane są rozprowadzane na dyskach na poziomie bitowym.

Poziomy RAID 4 i 5 są modyfikacją poziomu zerowego, w którym przepływ danych jest rozprowadzany po dyskach macierzy. Różnica polega na tym, że na poziomie 4 przydzielany jest specjalny dysk do przechowywania nadmiarowych informacji, a na poziomie 5 nadmiarowe informacje są rozdzielane na wszystkie dyski macierzy.

Zwiększanie niezawodności i ochrona danych w sieci, w oparciu o wykorzystanie informacji redundantnych, realizowane jest nie tylko na poziomie poszczególnych elementów sieci, takich jak macierze dyskowe, ale także na poziomie sieciowych systemów operacyjnych. Na przykład Novell wdraża odporne na awarie wersje systemu operacyjnego Netware - SFT (System Fault Tolerance):

  • - SFT Poziom I. Pierwszy poziom przewiduje utworzenie dodatkowych kopii FAT i Directory Entries Tables, natychmiastową weryfikację każdego nowo zapisanego bloku danych na serwerze plików oraz rezerwację około 2% pojemności dysku na każdym dysku twardym prowadzić.
  • - SFT Level II dodatkowo zawierał możliwość tworzenia dysków „lustrzanych”, a także powielania kontrolerów dysków, zasilaczy i kabli interfejsów.
  • - Wersja SFT Level III umożliwia korzystanie z duplikatów serwerów w sieci lokalnej, z których jeden jest „głównym”, a drugi, zawierający kopię wszystkich informacji, uruchamia się w przypadku awarii serwera „głównego”.

Analiza bezpieczeństwa

Usługa analizy bezpieczeństwa ma na celu identyfikację podatności w celu szybkiego ich wyeliminowania. Ta usługa sama w sobie nie chroni przed niczym, ale pomaga wykryć (i wyeliminować) luki w zabezpieczeniach, zanim osoba atakująca będzie mogła je wykorzystać. Przede wszystkim nie mamy tu na myśli luk architektonicznych (trudno je wyeliminować), ale luki „operacyjne”, które powstały na skutek błędów administracyjnych lub nieuwagi przy aktualizacji wersji oprogramowania.

Systemy analizy bezpieczeństwa (zwane także skanerami bezpieczeństwa), podobnie jak omówione powyżej narzędzia aktywnego audytu, opierają się na gromadzeniu i wykorzystywaniu wiedzy. Odnosi się to do wiedzy na temat luk w zabezpieczeniach: jak ich szukać, jak poważne są i jak je naprawić.

W związku z tym rdzeniem takich systemów jest baza danych podatności, która określa dostępny zakres możliwości i wymaga niemal ciągłej aktualizacji.

Zasadniczo można zidentyfikować luki o bardzo różnym charakterze: obecność złośliwego oprogramowania (w szczególności wirusów), słabe hasła użytkowników, źle skonfigurowane systemy operacyjne, niepewne usługi sieciowe, odinstalowane łatki, luki w aplikacjach itp. Najbardziej skuteczne są jednak skanery sieciowe (oczywiście ze względu na dominację rodziny protokołów TCP/IP), a także narzędzia antywirusowe (10). Ochronę antywirusową klasyfikujemy jako narzędzie analizy bezpieczeństwa, nie uważając jej za odrębną usługę bezpieczeństwa.

Skanery mogą identyfikować luki zarówno poprzez analizę pasywną, czyli badanie plików konfiguracyjnych, zaangażowanych portów itp., jak i poprzez symulację działań atakującego. Część wykrytych luk może zostać automatycznie usunięta (np. wyleczenie zainfekowanych plików), inne są zgłaszane administratorowi.

Kontrola zapewniana przez systemy analizy bezpieczeństwa ma charakter reaktywny, opóźniony, nie chroni przed nowymi atakami, należy jednak pamiętać, że obrona musi być wielowarstwowa, a kontrola bezpieczeństwa jako jedna z granic jest w zupełności wystarczająca. Wiadomo, że zdecydowana większość ataków ma charakter rutynowy; są one możliwe tylko dlatego, że znane luki w zabezpieczeniach pozostają nienaprawione przez lata.

    Gwałtowny wzrost ilości informacji gromadzonych, przechowywanych i przetwarzanych przy użyciu komputerów i innych narzędzi automatyzacji.

    Koncentracja informacji do różnych celów i różnych akcesoriów w ujednoliconych bazach danych.

    Gwałtowne poszerzenie kręgu użytkowników mających bezpośredni dostęp do zasobów systemu komputerowego i znajdujących się w nim danych.

    Rosnąca złożoność trybów pracy środków technicznych systemów obliczeniowych: powszechne wprowadzenie trybu wieloprogramowego, podziału czasu i trybu czasu rzeczywistego.

    Automatyzacja wymiany informacji między maszynami, także na duże odległości.

W tych warunkach powstają dwa rodzaje podatności: z jednej strony możliwość zniszczenia lub zniekształcenia informacji (tj. naruszenie jej fizycznej integralności), a z drugiej możliwość nieuprawnionego wykorzystania informacji (tj. niebezpieczeństwo wycieku informacji zastrzeżonych). Drugi rodzaj podatności jest szczególnie niepokojący dla użytkowników komputerów.

Główne potencjalne kanały wycieku informacji to:

    Bezpośrednia kradzież mediów i dokumentów.

    Zapamiętywanie lub kopiowanie informacji.

    Nieautoryzowane podłączenie do sprzętu i linii komunikacyjnych lub nielegalne użycie „legalnego” (tj. zarejestrowanego) sprzętu systemowego (najczęściej terminali użytkownika).

    Nieautoryzowany dostęp do informacji za pomocą specjalnych urządzeń matematycznych i oprogramowania.

Metody bezpieczeństwa informacji.

Można wyróżnić trzy obszary prac nad bezpieczeństwem informacji: badania teoretyczne, rozwój narzędzi bezpieczeństwa oraz uzasadnienie metod stosowania narzędzi bezpieczeństwa w zautomatyzowanych systemach.

W ujęciu teoretycznym główną uwagę poświęcono badaniu podatności informacji w systemach elektronicznego przetwarzania informacji, zjawisku i analizie kanałów wycieku informacji, uzasadnieniu zasad ochrony informacji w dużych systemach zautomatyzowanych oraz opracowaniu metod oceny niezawodność ochrony.

Do chwili obecnej opracowano wiele różnych narzędzi, metod, środków i środków w celu ochrony informacji gromadzonych, przechowywanych i przetwarzanych w zautomatyzowanych systemach. Obejmuje to sprzęt i oprogramowanie, zamykanie informacji kryptograficznych, środki fizyczne, wydarzenia zorganizowane i środki legislacyjne. Czasami wszystkie te środki ochrony dzielą się na techniczne i nietechniczne, przy czym środki techniczne obejmują sprzęt i oprogramowanie oraz zamknięcie informacji kryptograficznej, a środki nietechniczne obejmują resztę wymienioną powyżej.

a) metody ochrony sprzętu.

Ochrona sprzętu obejmuje różne urządzenia elektroniczne, elektroniczno-mechaniczne i elektrooptyczne. Do chwili obecnej opracowano znaczną liczbę urządzeń sprzętowych do różnych celów, ale najbardziej rozpowszechnione są:

Specjalne rejestry do przechowywania szczegółów bezpieczeństwa: haseł, kodów identyfikacyjnych, klasyfikacji czy poziomów bezpieczeństwa,

Generatory kodów przeznaczone do automatycznego generowania kodu identyfikacyjnego urządzenia,

Urządzenia do pomiaru indywidualnych cech osoby (głos, odciski palców) w celu identyfikacji,

Specjalne bity prywatności, których wartość określa poziom prywatności informacji przechowywanych w pamięci, do której te bity należą,

Układy przerywające transmisję informacji w linii komunikacyjnej w celu okresowego sprawdzania adresu wyjściowego danych.

Szczególną i najpowszechniej stosowaną grupą sprzętowych urządzeń zabezpieczających są urządzenia służące do szyfrowania informacji (metody kryptograficzne).

b) metody ochrony oprogramowania.

Oprogramowanie zabezpieczające obejmuje specjalne programy, które służą do wykonywania funkcji bezpieczeństwa i są zawarte w oprogramowaniu systemów przetwarzania danych. Ochrona oprogramowania to najpowszechniejszy rodzaj ochrony, czemu sprzyjają takie pozytywne właściwości tego narzędzia, jak wszechstronność, elastyczność, łatwość wdrożenia, niemal nieograniczone możliwości zmian i rozwoju itp. Ze względu na przeznaczenie funkcjonalne można je podzielić na następujące grupy:

Identyfikacja środków technicznych (terminale, urządzenia sterujące grupowo wejścia-wyjścia, komputery, nośniki danych), zadań i użytkowników,

Ustalanie uprawnień środków technicznych (dni i godziny pracy, zadania dopuszczone do użytkowania) i użytkowników,

Monitorowanie pracy urządzeń technicznych i użytkowników,

Rejestracja działania środków technicznych i użytkowników przy przetwarzaniu informacji o ograniczonym zastosowaniu,

Niszczenie przechowywanych informacji po ich wykorzystaniu,

Alarmy w przypadku nieautoryzowanych działań,

Programy pomocnicze do różnych celów: monitorowanie działania mechanizmu zabezpieczającego, umieszczanie stempla tajności na wystawianych dokumentach.

c) kopia zapasowa.

Tworzenie kopii zapasowych informacji polega na przechowywaniu kopii programów na nośniku: napędzie taśmowym, dyskietkach, dyskach optycznych, dyskach twardych. Na tych nośnikach kopie programów mogą mieć postać normalną (nieskompresowaną) lub zarchiwizowaną. Backup ma na celu ochronę programów przed uszkodzeniem (zarówno zamierzonym, jak i przypadkowym) oraz przechowywanie rzadko używanych plików.

Wraz z nowoczesnym rozwojem technologii komputerowej wymagania dotyczące urządzeń pamięci masowej w sieci lokalnej rosną znacznie szybciej niż możliwości. Wraz z geometrycznym wzrostem pojemności podsystemów dyskowych, programy kopiujące na taśmę magnetyczną muszą czytać i zapisywać coraz większe ilości danych w czasie przeznaczonym na tworzenie kopii zapasowych. Co ważniejsze, programy do tworzenia kopii zapasowych muszą nauczyć się zarządzać dużą liczbą plików w taki sposób, aby odzyskanie poszczególnych plików nie było zbyt trudne dla użytkowników.

Większość najpopularniejszych nowoczesnych programów do tworzenia kopii zapasowych udostępnia w takiej czy innej formie bazę danych plików objętych kopią zapasową oraz informacje o tym, na której taśmie znajdują się najnowsze kopie zapasowe. Znacznie mniej powszechna jest możliwość integracji (a przynajmniej współistnienia) z ustrukturyzowaną lub hierarchiczną technologią przechowywania informacji (HSM, Hierarchical Storage Management).

HSM pomaga zwiększyć dostępną przestrzeń na dysku twardym serwera, przenosząc pliki statyczne (do których ostatnio nie używano dostępu) na tańsze alternatywne urządzenia pamięci masowej, takie jak napędy optyczne lub taśmowe. HSM pozostawia na dysku twardym plik fikcyjny o zerowej długości, co oznacza, że ​​prawdziwy plik został przesłany. W takim przypadku, jeśli użytkownik potrzebuje wcześniejszej wersji pliku, oprogramowanie HSM może szybko odzyskać ją z taśmy magnetycznej lub napędu optycznego.

d) kryptograficzne szyfrowanie informacji.

Kryptograficzne zamknięcie (szyfrowanie) informacji polega na takiej transformacji chronionej informacji, w której treści zamkniętych danych nie można określić na podstawie ich wyglądu. Specjaliści zwracają szczególną uwagę na ochronę kryptograficzną, uznając ją za najbardziej niezawodną, ​​a w przypadku informacji przesyłanych dalekobieżnymi liniami komunikacyjnymi za jedyny sposób zabezpieczenia informacji przed kradzieżą.

Główne kierunki prac nad tym aspektem ochrony można sformułować następująco:

Dobór racjonalnych systemów szyfrowania do bezpiecznego zamykania informacji,

Uzasadnienie sposobów realizacji systemów szyfrowania w systemach zautomatyzowanych,

Opracowanie zasad stosowania metod ochrony kryptograficznej podczas pracy systemów zautomatyzowanych,

Ocena skuteczności ochrony kryptograficznej.

Szyfrom przeznaczonym do zamykania informacji w komputerach i systemach zautomatyzowanych stawia się szereg wymagań, m.in.: wystarczającą siłę (niezawodność szyfrowania), łatwość szyfrowania i deszyfrowania w zależności od sposobu prezentacji informacji w maszynie, niewrażliwość na drobne błędy szyfrowania , możliwość maszynowego przetwarzania zaszyfrowanych informacji, niewielka redundancja informacji w wyniku szyfrowania i wiele innych. W takim czy innym stopniu wymagania te spełniają określone rodzaje podstawień, permutacji, szyfry gamma, a także szyfry oparte na analitycznych transformacjach zaszyfrowanych danych.

Szyfrowanie podstawieniowe (czasami używany jest termin „podstawienie”) polega na zastąpieniu znaków zaszyfrowanego tekstu znakami innego lub tego samego alfabetu, zgodnie z ustalonym z góry schematem zastępowania.

Szyfrowanie transpozycji oznacza, że ​​w obrębie określonego bloku tego tekstu znaki zaszyfrowanego tekstu zostają uporządkowane według jakiejś reguły. Przy wystarczającej długości bloku, w obrębie którego przeprowadzana jest permutacja oraz złożonej i niepowtarzalnej kolejności permutacji, można osiągnąć siłę szyfrowania wystarczającą do praktycznych zastosowań w systemach zautomatyzowanych.

Szyfrowanie gamma polega na dodaniu symboli zaszyfrowanego tekstu do symboli jakiejś losowej sekwencji zwanej gamma. Siła szyfrowania zależy głównie od rozmiaru (długości) niepowtarzającej się części gamy. Ponieważ za pomocą komputera można wygenerować niemal nieskończony zakres, metoda ta jest uważana za jedną z głównych metod szyfrowania informacji w zautomatyzowanych systemach. To prawda, że ​​​​pojawia się szereg trudności organizacyjnych i technicznych, które jednak nie są nie do pokonania.

Szyfrowanie transformacji analitycznej oznacza, że ​​zaszyfrowany tekst jest przekształcany według jakiejś reguły analitycznej (formuły). Można np. zastosować regułę mnożenia macierzy przez wektor, a pomnożona macierz jest kluczem szyfrującym (dlatego jej wielkość i zawartość należy zachować w tajemnicy), a symbole pomnożonego wektora służą kolejno za symbole zaszyfrowanego tekstu.

Szczególnie skuteczne są szyfry kombinowane, gdy tekst jest szyfrowany sekwencyjnie przez dwa lub więcej systemów szyfrowania (na przykład podstawienie i gamma, permutacja i gamma). Uważa się, że w tym przypadku siła szyfrowania przekracza całkowitą siłę szyfrów złożonych.

Każdy z omawianych systemów szyfrowania można zaimplementować w systemie zautomatyzowanym albo programowo, albo przy użyciu specjalnego sprzętu. Wdrożenie oprogramowania jest bardziej elastyczne i tańsze niż wdrożenie sprzętowe. Jednak szyfrowanie sprzętowe jest na ogół kilka razy bardziej produktywne. Okoliczność ta ma decydujące znaczenie w przypadku dużej ilości informacji poufnych.

e) środki ochrony fizycznej.

Kolejną klasą w arsenale środków bezpieczeństwa informacji są środki fizyczne. Są to różnego rodzaju urządzenia i konstrukcje, a także środki utrudniające lub uniemożliwiające potencjalnym sprawcom przedostanie się do miejsc, w których mogą mieć dostęp do chronionych informacji. Najczęściej stosowane środki to:

Fizyczne oddzielenie obiektów, w których zainstalowane są urządzenia systemu automatyki, od innych obiektów,

Grodzenie terenu ośrodków komputerowych płotami w takich odległościach, które wykluczają skuteczną rejestrację promieniowania elektromagnetycznego oraz organizowanie systematycznego monitoringu tych terenów,

Organizacja punktów kontrolnych przy wejściach do pomieszczeń centrów komputerowych lub drzwi wejściowych wyposażonych w specjalne zamki umożliwiające regulację dostępu do pomieszczeń,

Organizacja systemu alarmowego.

f) środki organizacyjne mające na celu ochronę informacji.

Kolejną klasą środków bezpieczeństwa informacji są środki organizacyjne. Są to regulacje, które regulują funkcjonowanie systemu przetwarzania danych, sposób korzystania z jego urządzeń i zasobów, a także relacje pomiędzy użytkownikami a systemami w taki sposób, że nieuprawniony dostęp do informacji staje się niemożliwy lub znacząco utrudniony. Dużą rolę w tworzeniu niezawodnego mechanizmu bezpieczeństwa informacji odgrywają środki organizacyjne. Zwiększoną rolę środków organizacyjnych w mechanizmie ochrony powoduje fakt, że o możliwości nieuprawnionego wykorzystania informacji w dużej mierze decydują aspekty pozatechniczne: złośliwe działania, zaniedbania lub zaniedbania użytkowników lub personelu systemów przetwarzających dane. Wpływ tych aspektów jest prawie niemożliwy do uniknięcia lub ograniczenia przy użyciu omówionego powyżej sprzętu i oprogramowania, zamykania informacji kryptograficznych i fizycznych środków bezpieczeństwa. Wymaga to zastosowania zestawu środków organizacyjnych, organizacyjno-technicznych i organizacyjno-prawnych, które wyeliminują możliwość niebezpieczeństwa wycieku informacji w ten sposób.

Główne działania w tej całości są następujące:

Działania prowadzone podczas projektowania, budowy i wyposażenia centrów komputerowych (CC),

Działania prowadzone podczas selekcji i szkolenia personelu CC (sprawdzanie zatrudnionych, tworzenie warunków, w których pracownicy nie będą chcieli stracić pracy, zapoznawanie się z karami za łamanie zasad ochrony),

Organizacja niezawodnej kontroli dostępu,

Organizowanie przechowywania i korzystania z dokumentów i nośników: ustalanie zasad wydawania, prowadzenie dzienników wydań i użytkowania,

Kontrola zmian w matematyce i oprogramowaniu,

Organizacja szkoleń i kontrola pracy użytkowników,

Jednym z najważniejszych działań organizacyjnych jest utrzymanie w KC specjalnej, całodobowej służby ochrony informacji, której liczba i skład zapewnią utworzenie niezawodnego systemu ochrony i jego prawidłowe funkcjonowanie.

Wniosek.

Główne wnioski dotyczące sposobów wykorzystania omówionych powyżej środków, metod i środków ochrony sprowadzają się do:

    Największy efekt osiąga się, gdy wszystkie stosowane środki, metody i środki zostaną połączone w jeden, całościowy mechanizm ochrony informacji.

    Mechanizm ochrony powinien być projektowany równolegle z tworzeniem systemów przetwarzania danych, począwszy od momentu opracowania ogólnego projektu systemu.

    Funkcjonowanie mechanizmu ochrony musi być zaplanowane i zapewnione wraz z planowaniem i zapewnieniem podstawowych procesów zautomatyzowanego przetwarzania informacji.

    Konieczne jest ciągłe monitorowanie funkcjonowania mechanizmu zabezpieczającego.

Oprogramowanie zabezpieczające– Jest to najczęstsza metoda ochrony informacji znajdujących się w komputerach i sieciach informatycznych. Stosuje się je zwykle wtedy, gdy trudno jest zastosować inne metody i środki. Uwierzytelnianie użytkownika jest zwykle przeprowadzane przez system operacyjny. Użytkownik jest identyfikowany po imieniu, a hasło służy do uwierzytelnienia.

Oprogramowanie zabezpieczające to zespół algorytmów i programów specjalnego przeznaczenia oraz ogólnego wsparcia działania komputerów i sieci informatycznych. Mają na celu: kontrolowanie i ograniczanie dostępu do informacji, wykluczanie nieuprawnionych działań z nimi, zarządzanie urządzeniami zabezpieczającymi itp. Narzędzia do ochrony oprogramowania są uniwersalne, łatwe we wdrożeniu, elastyczne, przystosowalne, konfigurowalne dla systemu itp.

Narzędzia programowe są szeroko stosowane w celu ochrony przed wirusami komputerowymi. Dla ochrona maszyn przed wirusami komputerowymi , zapobiegania i „leczenia”, stosowane są programy antywirusowe, a także narzędzia diagnostyczne i zapobiegawcze, aby zapobiegać przedostawaniu się wirusa do systemu komputerowego, leczyć zainfekowane pliki i dyski oraz wykrywać podejrzane działania i zapobiegać im. Programy antywirusowe są oceniane na podstawie ich dokładności w wykrywaniu i skutecznym eliminowaniu wirusów, łatwości obsługi, kosztu i możliwości pracy w trybie online.

Najpopularniejsze programy to te, których zadaniem jest zapobieganie infekcjom, wykrywanie i niszczenie wirusów. Wśród nich są krajowe programy antywirusowe DrWeb (Doctor Web) autorstwa I. Daniłowa i AVP (Antiviral Toolkit Pro) autorstwa E. Kaspersky. Posiadają przyjazny interfejs użytkownika, narzędzia do skanowania programów, sprawdzania systemu podczas uruchamiania itp. Zagraniczne programy antywirusowe są również używane w Rosji.

Nie ma absolutnie niezawodnych programów, które gwarantowałyby wykrycie i zniszczenie jakiegokolwiek wirusa. Tylko wielopoziomowa obrona może zapewnić najpełniejszą ochronę przed wirusami. Ważnym elementem ochrony przed wirusami komputerowymi jest profilaktyka. Programy antywirusowe są używane jednocześnie z regularnym tworzeniem kopii zapasowych danych i środkami zapobiegawczymi. Łącznie te środki mogą znacznie zmniejszyć prawdopodobieństwo zarażenia wirusem.



Główne środki zapobiegania wirusom to:

1) korzystanie z licencjonowanego oprogramowania;

2) regularne korzystanie z kilku stale aktualizowanych programów antywirusowych w celu skanowania nie tylko własnych nośników danych podczas przesyłania na nie plików osób trzecich, ale także wszelkich „obcych” dyskietek i dysków z wszelkimi informacjami na nich, m.in. i przeformatowany;

3) stosowanie różnych środków ochronnych podczas pracy na komputerze w dowolnym środowisku informacyjnym (na przykład w Internecie). Sprawdzanie plików otrzymanych przez sieć pod kątem wirusów;

4) okresowe tworzenie kopii zapasowych najcenniejszych danych i programów.

Najczęstszymi źródłami infekcji są gry komputerowe zakupione „nieoficjalnie” i programy nielicencjonowane. Dlatego niezawodną gwarancją ochrony przed wirusami jest dokładność użytkowników przy wyborze programów i ich instalowaniu na komputerze, a także podczas sesji internetowych. Prawdopodobieństwo infekcji, która nie pochodzi z sieci komputerowej, można zmniejszyć prawie do zera, jeśli korzystasz wyłącznie z licencjonowanych, legalnych produktów i nigdy nie wpuszczasz na swój komputer znajomych z nieznanymi programami, zwłaszcza grami. Najskuteczniejszym środkiem w tym przypadku jest ustanowienie kontroli dostępu, która zapobiega szkodliwemu wpływowi wirusów i wadliwych programów na dane, nawet jeśli wirusy przedostaną się do takiego komputera.

Jednym z najbardziej znanych sposobów ochrony informacji jest jej kodowanie (szyfrowanie, kryptografia). Nie chroni cię przed wpływami fizycznymi, ale w innych przypadkach służy jako niezawodne lekarstwo.

Kod charakteryzuje się: długość– liczba znaków użytych w kodowaniu i Struktura– kolejność ułożenia symboli stosowanych do oznaczenia atrybutu klasyfikacyjnego.

Narzędzie do kodowania pełni funkcję stołu korespondencyjnego. Przykładem takiej tabeli do konwersji informacji alfanumerycznych na kody komputerowe jest tabela kodów ASCII.

Pierwszy standard szyfrowania pojawił się w 1977 roku w USA. Głównym kryterium siły dowolnego szyfru lub kodu jest dostępna moc obliczeniowa i czas, w którym można go odszyfrować. Jeśli ten czas wynosi kilka lat, wówczas trwałość takich algorytmów jest wystarczająca dla większości organizacji i osób prywatnych. Do szyfrowania informacji coraz częściej stosuje się kryptograficzne metody ich ochrony.

Kryptograficzne metody ochrony informacji

Ogólne metody kryptograficzne są znane już od dawna. Uważa się, że jest to potężny sposób zapewnienia poufności i monitorowania integralności informacji. Nie ma jeszcze alternatywy dla metod kryptograficznych.

Siła kryptoalgorytmu zależy od złożoności metod konwersji. Państwowa Komisja Techniczna Federacji Rosyjskiej zajmuje się rozwojem, sprzedażą i wykorzystaniem narzędzi do szyfrowania danych oraz certyfikacją środków ochrony danych.

Jeśli użyjesz kluczy o długości 256 lub więcej bitów, poziom niezawodności ochrony danych wyniesie dziesiątki lub setki lat pracy superkomputera. Do użytku komercyjnego wystarczą klucze 40- i 44-bitowe.

Jednym z ważnych problemów bezpieczeństwa informacji jest organizacja ochrony danych elektronicznych i dokumentów elektronicznych. Do ich kodowania, w celu spełnienia wymagań zapewniających bezpieczeństwo danych przed nieuprawnionym wpływem na nie, stosuje się elektroniczny podpis cyfrowy (EDS).

Podpis elektroniczny

Podpis cyfrowy reprezentuje ciąg znaków. Zależy to od samej wiadomości i tajnego klucza, znanego tylko osobie podpisującej tę wiadomość.

Pierwszy krajowy standard podpisu cyfrowego pojawił się w 1994 roku. Federalna Agencja Technologii Informacyjnych (FAIT) zajmuje się stosowaniem podpisów cyfrowych w Rosji.

Wysoko wykwalifikowani specjaliści zajmują się wdrażaniem wszelkich niezbędnych środków ochrony osób, obiektów i danych. Stanowią podstawę odpowiednich działów, są zastępcami szefów organizacji itp.

Istnieją również techniczne środki ochrony.

Techniczne środki ochrony

Techniczne środki ochrony znajdują zastosowanie w różnych sytuacjach, stanowią część fizycznych środków ochrony oraz oprogramowania i sprzętu komputerowego, kompleksów i urządzeń dostępowych, monitoringu wizyjnego, alarmów i innych rodzajów zabezpieczeń.

W najprostszych sytuacjach, aby zabezpieczyć komputery osobiste przed nieupoważnionym uruchomieniem i wykorzystaniem znajdujących się na nich danych, proponuje się instalowanie urządzeń ograniczających dostęp do nich, a także pracę z wymiennymi dyskami twardymi magnetycznymi, magnetooptycznymi, samostartującymi płytami CD , pamięć flash itp.

W celu ochrony obiektów w celu ochrony ludzi, budynków, pomieszczeń, środków materialnych i technicznych oraz informacji przed nieuprawnionym wpływem na nie, szeroko stosuje się aktywne systemy i środki bezpieczeństwa. Powszechnie przyjmuje się, że do ochrony obiektów stosuje się systemy kontroli dostępu (ACS). Systemy takie są zazwyczaj systemami zautomatyzowanymi i kompleksami tworzonymi w oparciu o oprogramowanie i sprzęt.

W większości przypadków, aby chronić informacje i ograniczać nieuprawniony dostęp do nich, budynków, lokali i innych obiektów, konieczne jest jednoczesne korzystanie z oprogramowania i sprzętu, systemów i urządzeń.