Rozwój bazy danych. Historia rozwoju systemów zarządzania bazami danych. Kolejność studiowania i klasyfikacja materiałów edukacyjnych

Przegląd oprogramowania do tworzenia systemów zarządzania bazami danych

Piąta postać normalna

czwarta forma normalna

Postać normalna Boyce-Codd

Tabela jest w normalnej postaci Boyce-Codda tylko wtedy, gdy jakakolwiek funkcjonalna zależność między jej polami jest zredukowana do pełnej funkcjonalnej zależności od możliwego klucza.

Zgodnie z tą definicją w strukturze bazy danych wszystkie tabele są zgodne z wymaganiami postaci normalnej Boyce-Codd.

Dalsza optymalizacja tabel bazy danych powinna zostać sprowadzona do całkowitego rozłożenia tabel.

Całkowity rozkład tabeli to taki zestaw dowolnej liczby jej rzutów, których połączenie całkowicie pokrywa się z zawartością tabeli.

Czwarta forma normalna jest szczególnym przypadkiem piątej formy normalnej, gdzie całkowity rozkład musi być sumą dwóch rzutów. Bardzo trudno jest znaleźć tabelę, która ma czwartą postać normalną, ale nie spełnia definicji piątej postaci normalnej.

Tablica ma piątą postać normalną wtedy i tylko wtedy, gdy w każdym z jej pełnych rozkładów wszystkie rzuty zawierają możliwy klucz. Tabela, która nie ma pełnego rozkładu, jest również w piątej postaci normalnej.

W praktyce optymalizacja tabeli bazy danych kończy się w trzeciej postaci normalnej. Redukcja tabel do czwartej i piątej postaci normalnej ma znaczenie czysto teoretyczne. W praktyce problem ten rozwiązuje się poprzez rozwijanie zapytań w celu utworzenia nowej tabeli.

Na wczesnych etapach rozwoju informacje Wyszukiwarki opracowano specjalne języki manipulacji danymi (DML) - języki zapytań. Koncentrowali się na operacjach z danymi prezentowanymi w postaci hierarchicznie powiązanych plików i dysponowali odpowiednimi algorytmami wyszukiwania informacji.

Pojawienie się relacyjnych baz danych stworzyło warunki wstępne dla innych, szybszych algorytmów wyszukiwania informacji.

Do przetwarzania informacji ustrukturyzowanych w postaci tabel - tablice dwuwymiarowe, pod koniec lat 70-tych. XX wiek IBM opracował odpowiedni język, który później został nazwany Structured Query Language (SQL) - język zapytań strukturalnych. SQL jest obecnie Międzynarodowy standard język przetwarzania danych w relacyjnym DBMS. Język jest rdzeniem wszystkich produktów oprogramowania do tworzenia DBMS.

Następujące produkty oprogramowania są najczęściej używane wśród użytkowników i programistów DBMS:

Języki specjalne programowanie - Visual FoxPro, SQL, MS SQL-Serwer

Stosowane systemy oprogramowania – Microsoft Access, wyrocznia itp.

Rozważ niektóre cechy tych narzędzi programowych.

























1 z 24

Prezentacja na ten temat: Historia rozwoju bazy danych

slajd numer 1

Opis slajdu:

slajd numer 2

Opis slajdu:

Wstęp W historii techniki komputerowej można prześledzić rozwój dwóch głównych obszarów jej wykorzystania. Pierwszym obszarem jest wykorzystanie technologii komputerowej do wykonywania obliczeń numerycznych, które są zbyt długie lub niemożliwe do wykonania ręcznie. Drugi obszar to wykorzystanie technologii komputerowej w automatycznych lub zautomatyzowanych systemach informatycznych.

slajd numer 3

Opis slajdu:

Drugi obszar wykorzystania technologii komputerowej powstał nieco później niż pierwszy. Wynika to z faktu, że u zarania informatyki zdolność komputerów do przechowywania informacji była bardzo ograniczona. Dlatego pojawienie się wymiennych dysków magnetycznych z ruchomymi głowicami było rewolucją w historii technologii komputerowej. Wraz z ich pojawieniem się rozpoczęła się historia systemów zarządzania danymi w pamięci zewnętrznej, nastąpiło przejście na stosowanie scentralizowanych systemów zarządzania plikami.

slajd numer 4

Opis slajdu:

niedogodności systemy plików 1. Redundancja danych. Systemy plików charakteryzują się znaczną redundancją, ponieważ często te same dane znajdujące się w różnych plikach służą do rozwiązywania różnych problemów związanych z zarządzaniem. Ze względu na powielanie danych w różnych plikach pamięć na zewnętrznych urządzeniach pamięci jest wykorzystywana nieekonomicznie, informacje o tym samym obiekcie kontrolnym są rozprowadzane w wielu plikach. Jednocześnie dość trudno jest przedstawić ogólny model informacyjny z tematu.

slajd numer 5

Opis slajdu:

2. Niespójność danych. Biorąc pod uwagę, że te same informacje mogą być umieszczone w różnych plikach, technologicznie trudno jest śledzić zmiany dokonywane we wszystkich plikach jednocześnie. Z tego powodu może wystąpić niespójność danych, gdy to samo pole w różnych plikach może mieć różne wartości.

slajd numer 6

Opis slajdu:

3. Zależność struktur danych i programów użytkowych. W przypadku organizacji zbioru logiczne i fizyczne struktury zbioru muszą być zgodne z opisem w programie użytkowym. Program użytkowy należy modyfikować za każdym razem, gdy zmienia się logiczna lub fizyczna struktura pliku. Ponieważ zmiany w jednym programie często wymagają zmian w innych programach związanych z informacjami, czasami łatwiej jest je stworzyć nowy program niż wprowadzać zmiany w starym. Dlatego ten brak systemów plików prowadzi do znacznego wzrostu kosztów utrzymania oprogramowania. Czasami koszt utrzymania oprogramowania może sięgać blisko 70% kosztów jego rozwoju.

slajd numer 7

Opis slajdu:

Te niedociągnięcia były impulsem, który zmusił twórców systemów informatycznych do zaproponowania nowego podejścia do zarządzania informacją. Takie podejście zostało wdrożone w nowym systemy oprogramowania, nazwane później systemami zarządzania bazami danych (DBMS), a same repozytoria informacji, które pracowały pod kontrolą tych systemów, nazwano bazami danych lub bankami danych (DB i BnD).

slajd numer 8

Opis slajdu:

Powstanie SZBD Historia rozwoju SZBD ma ponad 30 lat. W 1968 roku uruchomiono pierwszy przemysłowy system DBMS IMS firmy IBM. W 1975 roku pojawił się pierwszy standard asocjacyjny dla języków systemów przetwarzania danych – Conference of Data System Languages ​​(CODASYL), który zdefiniował szereg fundamentalnych pojęć w teorii systemów bazodanowych, które wciąż są fundamentalne dla danych sieciowych Model. W dalszy rozwój teorii baz danych wielki wkład wniósł amerykański matematyk E.F. Codd, który jest twórcą model relacyjny dane. W 1981 roku E.F. Codd otrzymał prestiżową nagrodę Turinga od American Association for Computing Machinery za model relacyjny i algebrę relacyjną.

slajd numer 9

Opis slajdu:

Pierwszy etap - bazy danych na dużych komputerach Pierwszy etap rozwoju DBMS wiąże się z organizacją baz danych na dużych maszynach, takich jak IBM 360/370, komputery EC i minikomputery PDP11 (Digital Equipment Corporation - DEC), różne modele HP (od Hewlett Packard). Bazy danych były przechowywane w zewnętrznej pamięci komputera centralnego, użytkownikami tych baz danych były zadania uruchamiane głównie w trybie wsadowym. Interaktywny tryb dostępu zapewniono przy użyciu terminali konsolowych, które nie posiadały własnych zasobów obliczeniowych (procesor, pamięć zewnętrzna) i służyły jedynie jako urządzenia wejścia-wyjścia dla komputera centralnego.

slajd numer 10

Opis slajdu:

Programy dostępu do baz danych zostały napisane w różnych językach i działały jak zwykłe programy numeryczne. Potężne systemy operacyjne zapewniały możliwość warunkowego wykonanie równoległe cały zestaw zadań. Systemy te można było przypisać rozproszonym systemom dostępu, ponieważ baza danych była scentralizowana, przechowywana na zewnętrznych nośnikach pamięci jednego centralnego komputera, a dostęp do niej był obsługiwany z wielu zadań użytkowników. Pojawiają się pierwsze języki wysokiego poziomu do pracy z relacyjnym modelem danych. Jednak nie ma standardów dla tych pierwszych języków.

slajd numer 11

Opis slajdu:

Cechy pierwszego etapu Wszystkie DBMS są oparte na potężnych wieloprogramowych systemach operacyjnych (MVS, SVM, RTE, OSRV, RSX, UNIX), dlatego wspierana jest głównie praca ze scentralizowaną bazą danych w trybie rozproszonego dostępu. Funkcje zarządzania alokacją zasobów są wykonywane głównie przez system operacyjny (OS). Obsługiwane są języki manipulacji danymi niskiego poziomu skoncentrowane na metodach dostępu do danych nawigacyjnych. Istotną rolę przywiązuje się do administrowania danymi.

slajd numer 12

Opis slajdu:

Trwają poważne prace nad uzasadnieniem i sformalizowaniem relacyjnego modelu danych, powstał pierwszy system (System R) realizujący ideologię relacyjnego modelu danych. Prowadzone są prace teoretyczne nad optymalizacją zapytań i zarządzaniem rozproszonym dostępem do scentralizowanej bazy danych, wprowadzono pojęcie transakcji. Wyniki badań naukowych są otwarcie dyskutowane w prasie, istnieje potężny napływ publikacji publicznych dotyczących wszystkich aspektów teorii i praktyki baz danych, a wyniki badań teoretycznych są aktywnie wdrażane w komercyjnych SZBD.

slajd numer 13

Opis slajdu:

Drugi etap - era komputerów osobistych Istnieje wiele programów przeznaczonych do pracy z nieprzygotowanymi użytkownikami. Programy te są łatwe w obsłudze i intuicyjne: to przede wszystkim różne edytory tekstu, arkusze kalkulacyjne i inne. Każdy użytkownik może zautomatyzować wiele aspektów działania. I oczywiście wpłynęło to również na pracę z bazami danych. Pojawiły się programy, które nazwano systemami zarządzania bazami danych i pozwalały na przechowywanie znacznych ilości informacji, miały wygodny interfejs do wypełniania danych, wbudowane narzędzia do generowania różnych raportów. Programy te umożliwiły zautomatyzowanie wielu funkcji księgowych, które dotychczas były realizowane ręcznie. Komputery stały się narzędziem do prowadzenia ewidencji i własnych funkcji księgowych. Wszystko to odegrało zarówno pozytywną, jak i negatywną rolę w rozwoju baz danych.

slajd numer 14

Opis slajdu:

Pozorna prostota i dostępność komputerów osobistych i ich oprogramowania dała początek wielu amatorom. Deweloperzy ci, uważając się za ekspertów, zaczęli projektować krótkotrwałe bazy danych, które nie uwzględniały wielu cech obiektów świata rzeczywistego. Powstało wiele jednodniowych systemów, które nie spełniały praw rozwoju i wzajemnych połączeń rzeczywistych obiektów. Jednak dostępność komputerów osobistych zmusiła do zwrócenia się do nich użytkowników z wielu dziedzin wiedzy, którzy wcześniej nie wykorzystywali w swoich działaniach technologii komputerowej. A popyt na rozwinięte wygodne programy przetwarzanie danych zmusiło producentów oprogramowania do dostarczania coraz to nowych systemów, które są powszechnie nazywane desktopowymi (desktopowymi) systemami DBMS. Duża konkurencja wśród dostawców wymusiła ulepszanie tych systemów, oferowanie nowych funkcji, ulepszanie interfejsu i wydajności systemów, obniżanie ich kosztów. Obecność na rynku dużej liczby DBMS realizujących podobne funkcje wymagała opracowania metod eksport-import dane dla tych systemów i odkrywanie formatów przechowywania danych.

slajd numer 15

Opis slajdu:

Specyfika drugiego etapu Wszystkie DBMS zostały zaprojektowane do tworzenia baz danych o dostępie głównie na wyłączność. I to jest zrozumiałe. Komputer jest osobisty, nie był podłączony do sieci, a baza danych na nim została stworzona do pracy jednego użytkownika. W rzadkich przypadkach zakładano sekwencyjną pracę kilku użytkowników, np. najpierw operatora, który wprowadzał dokumenty księgowe, a następnie głównego księgowego, który ustalał zapisy odpowiadające dokumentom podstawowym. Większość SZBD posiadała rozbudowany i wygodny interfejs użytkownika, większość z nich posiadała interaktywny tryb pracy z bazą danych, zarówno w ramach opisu bazy danych, jak iw ramach projektowania zapytań. Ponadto większość DBMS oferowała zaawansowane i wygodne narzędzia do tworzenia gotowych aplikacji bez programowania. Środowisko narzędziowe składało się z gotowych elementów aplikacji w postaci szablonów formularzy ekranowych, raportów, etykiet (Etykiet), graficznych projektantów zapytań, które po prostu można było złożyć w jeden kompleks. We wszystkich desktopowych DBMS obsługiwany był tylko zewnętrzny poziom prezentacji modelu relacyjnego, czyli tylko zewnętrzny tabelaryczny widok struktur danych.

slajd numer 16

Opis slajdu:

W obecności języków manipulacji danymi wysokiego poziomu, takich jak algebra relacyjna i SQL, systemy DBMS dla komputerów stacjonarnych obsługiwały języki manipulacji danymi niskiego poziomu na poziomie poszczególne linie tabele. Desktop DBMS brakowało środków do utrzymania referencyjnej i strukturalnej integralności bazy danych. Funkcje te miały pełnić aplikacje, jednak niedostatek narzędzi do tworzenia aplikacji czasami na to nie pozwalał, w takim przypadku funkcje te musiał wykonywać użytkownik, wymagając od niego dodatkowej kontroli przy wprowadzaniu i zmienianiu informacji przechowywanych w Baza danych. Dostępność ekskluzywny reżim prace faktycznie doprowadziły do ​​degeneracji funkcji administrowania bazami danych iw związku z tym do braku narzędzi do administrowania bazami danych. I wreszcie ostatnią i obecnie bardzo pozytywną cechą są stosunkowo skromne wymagania sprzętowe desktopowego DBMS. W pełni funkcjonalne aplikacje opracowane na przykład na Clipperze działały na PC 286.

numer slajdu 17

Opis slajdu:

Etap trzeci – rozproszone bazy danych Wiadomo, że historia rozwija się spiralnie, więc po procesie „personalizacji” rozpoczął się proces odwrotny – integracja. Liczba sieci lokalnych mnoży się, coraz więcej informacji będzie przesyłanych między komputerami, pojawia się dotkliwy problem spójności danych przechowywanych i przetwarzanych w różnych miejscach, ale logicznie ze sobą powiązane są zadania związane z równoległym przetwarzaniem transakcji - sekwencje operacji na bazie danych, przenoszące ją z jednego spójnego stanu do drugiego spójnego stanu. Pomyślne rozwiązanie tych problemów prowadzi do powstania rozproszonych baz danych, które zachowują wszystkie zalety desktopowego DBMS, a jednocześnie umożliwiają organizowanie równoległego przetwarzania informacji i zachowanie integralności bazy danych.

slajd numer 18

Opis slajdu:

Cechy trzeciego etapu Prawie wszystkie nowoczesne DBMS zapewniają wsparcie dla pełnego modelu relacyjnego, a mianowicie: integralność strukturalna - ważne są tylko dane przedstawione w postaci relacji modelu relacyjnego; integralność językowa, czyli języki manipulacji danymi wysokiego poziomu (głównie SQL); integralność referencyjna - kontrola nad przestrzeganiem integralności referencyjnej przez cały okres działania systemu i gwarantuje, że SZBD nie naruszy tych ograniczeń. Większość nowoczesnych DBMS jest zaprojektowana dla architektury wieloplatformowej, co oznacza, że ​​mogą pracować na komputerach o różnej architekturze i pod różnymi systemami operacyjnymi, podczas gdy dostęp do danych zarządzanych przez DBMS na różnych platformach jest dla użytkowników prawie nie do odróżnienia.

numer slajdu 19

Opis slajdu:

Konieczność wsparcia wieloużytkownikowej pracy z bazą danych oraz możliwość zdecentralizowanego przechowywania danych wymagały rozwoju narzędzi do administrowania bazą danych z realizacją ogólnej koncepcji narzędzi ochrony danych. Potrzeba nowych wdrożeń spowodowała powstanie poważnych prac teoretycznych nad optymalizacją implementacji rozproszonych baz danych oraz pracy z rozproszonymi transakcjami i zapytaniami z implementacją wyników uzyskanych w komercyjnych DBMS. Aby nie stracić klientów, którzy wcześniej pracowali na desktopowym DBMS, prawie wszystkie nowoczesne DBMS mają narzędzia do łączenia aplikacji klienckich opracowanych przy użyciu desktopowego DBMS oraz narzędzia do eksportu danych z formatów desktopowych.

numer slajdu 20

Opis slajdu:

SZBD trzeciego etapu rozwoju Etap ten obejmuje opracowanie szeregu standardów w ramach języków opisu i manipulacji danymi (SQL89, SQL92, SQL99) oraz technologii wymiany danych pomiędzy różnymi SZBD, do których należy protokół ODBC (Open DataBase Connectivity), zaproponowana przez firmę Microsoft. Ten etap obejmuje również rozpoczęcie prac związanych z koncepcją obiektowych baz danych – OODB. Za przedstawicieli DBMS związanych z drugim etapem można uznać MS Access 97 oraz wszystkie nowoczesne serwery bazodanowe Ox1e7.3, Ox1e 8.4, MS SQL 6.5, MS SQL 7.0, System 10, System 11, Informix, DB2, SQL Base i inne nowoczesne serwerów baz danych, których jest obecnie kilkadziesiąt.

slajd numer 21

Opis slajdu:

Etap czwarty - perspektywy rozwoju systemów zarządzania bazami danych Etap ten charakteryzuje się pojawieniem się nowej technologii dostępu do danych - intranetu. Główna różnica między tym podejściem a technologią klient-serwer polega na tym, że nie ma potrzeby używania specjalistycznego oprogramowania klienckiego. Do pracy ze zdalną bazą danych wykorzystywana jest standardowa przeglądarka internetowa, taka jak Microsoft Internet Explorer, a dla użytkownika końcowego proces dostępu do danych jest podobny do korzystania z Internetu. Jednocześnie kod osadzony na ładowanych przez użytkownika stronach HTML, zwykle napisany w Javie, Java-script, Perl i innych, śledzi wszystkie działania użytkownika i tłumaczy je na niskopoziomowe zapytania SQL do bazy danych, wykonując w ten sposób praca, która w technologii klient-serwer jest zaangażowana w program klienta.

slajd numer 22

Opis slajdu:

Wygoda tego podejścia doprowadziła do tego, że zaczęto go wykorzystywać nie tylko do zdalnego dostępu do baz danych, ale także dla użytkowników lokalna sieć przedsiębiorstw. Przy użyciu tej architektury można w prosty i wydajny sposób zbudować proste zadania przetwarzania danych, które nie są związane ze złożonymi algorytmami, które wymagają skoordynowanych zmian danych w wielu połączonych ze sobą obiektach. W takim przypadku nie trzeba instalować dodatkowego oprogramowania klienckiego, aby połączyć nowego użytkownika z możliwością korzystania z tego zadania. Jednak zadania złożone algorytmicznie zaleca się realizować w architekturze „klient-serwer” wraz z rozwojem specjalnego oprogramowania klienckiego.

algebra relacyjna prestiżową nagrodę Turinga przyznawaną przez American Association for Computing Machinery.

Od tego momentu minęły niespełna dwie dekady, ale szybki rozwój technologii komputerowej, zmiana jej fundamentalnej roli w społeczeństwie, upadek boomu na komputery osobiste i wreszcie pojawienie się potężnych stacji roboczych i sieci komputerowych również wpłynęły na rozwój technologii baz danych. Istnieją cztery etapy rozwoju tego kierunku przetwarzania danych. Należy jednak zauważyć, że w tych etapach wciąż nie ma ścisłych ograniczeń czasowych: płynnie przechodzą one w siebie, a nawet współistnieją równolegle, niemniej jednak wybór tych etapów pozwoli na dokładniejsze scharakteryzowanie poszczególnych etapów rozwój technologii baz danych, podkreślają cechy charakterystyczne dla danego etapu.

Pierwszy etap rozwoju DBMS wiąże się z organizacją baz danych na dużych maszynach, takich jak IBM 360/370, komputerach EC i minikomputerach, takich jak PDP11 (Digital Equipment Corporation - DEC), różnych modelach HP (Hewlett Packard). ).

Bazy danych były przechowywane w zewnętrznej pamięci komputera centralnego, użytkownikami tych baz danych były zadania uruchamiane głównie w trybie wsadowym. tryb interaktywny dostęp zapewniano za pomocą terminali konsolowych, które nie posiadały własnych zasobów obliczeniowych (procesor, pamięć zewnętrzna) i służyły jedynie jako urządzenia wejścia-wyjścia dla komputera centralnego. Programy dostępu do baz danych zostały napisane w różnych językach i działały jak zwykłe programy numeryczne. Potężne systemy operacyjne zapewniały możliwość warunkowego równoległego wykonywania całego zestawu zadań. Systemy te można było przypisać rozproszonym systemom dostępu, ponieważ baza danych była scentralizowana, przechowywana na zewnętrznych nośnikach pamięci jednego centralnego komputera, a dostęp do niej był obsługiwany z wielu zadań użytkowników.

Cechy tego etapu rozwoju wyrażają się w następujący sposób:

  • Wszystkie DBMS są oparte na wydajnych wieloprogramowych systemach operacyjnych (MVS, SVM, RTE, OSRV, RSX, UNIX), dlatego wspierana jest głównie praca ze scentralizowaną bazą danych w trybie rozproszonego dostępu.
  • Funkcje zarządzania alokacją zasobów są wykonywane głównie przez system operacyjny (OS).
  • Utrzymany języki niskiego poziomu manipulacja danymi, skoncentrowana na nawigacyjnych metodach dostępu do danych.
  • Istotną rolę przywiązuje się do administrowania danymi.
  • Trwają poważne prace nad uzasadnieniem i sformalizowaniem relacyjnego modelu danych, powstał pierwszy system (System R) realizujący ideologię relacyjnego modelu danych.
  • Trwają prace teoretyczne optymalizacja zapytań i zarządzania rozproszonym dostępem do scentralizowanej bazy danych wprowadzono pojęcie transakcji.
  • Wyniki badań naukowych są otwarcie dyskutowane w prasie, istnieje potężny napływ publikacji publicznych dotyczących wszystkich aspektów teorii i praktyki baz danych, a wyniki badań teoretycznych są aktywnie wdrażane w komercyjnych SZBD.

Pojawiają się pierwsze języki wysokiego poziomu do pracy z relacyjnym modelem danych. Nie ma jednak standardów dla tych pierwszych języków.

Era komputerów osobistych

Komputery osobiste szybko wdarły się w nasze życie i dosłownie zmieniły nasze zrozumienie miejsca i roli technologii komputerowych w społeczeństwie. Teraz komputery stały się bliższe i bardziej dostępne dla każdego użytkownika. Zniknął pełen szacunku strach zwykłych użytkowników przed niezrozumiałymi i złożonymi językami programowania. Istnieje wiele programów przeznaczonych do pracy nieprzygotowanych użytkowników. Programy te były łatwe w obsłudze i intuicyjne: przede wszystkim różne edytory tekstu, arkusze kalkulacyjne i inne. Czynności kopiowania plików i przenoszenia informacji z jednego komputera na drugi, drukowania tekstów, tabel i innych dokumentów stały się proste i zrozumiałe. Programiści systemowi zostali zepchnięci na dalszy plan. Każdy użytkownik może poczuć się jak kompletny mistrz tego potężnego i wygodnego urządzenia, które pozwala zautomatyzować wiele aspektów swojej aktywności. I oczywiście wpłynęło to również na pracę z bazami danych. Pojawiły się programy, które nazwano systemami zarządzania bazami danych i pozwalały na przechowywanie znacznych ilości informacji, miały wygodny interfejs do wypełniania danych, wbudowane narzędzia do generowania różnych raportów. Programy te umożliwiły zautomatyzowanie wielu funkcji księgowych, które dotychczas były realizowane ręcznie. Stały spadek cen komputerów osobistych sprawił, że stały się one dostępne nie tylko dla organizacji i firm, ale także dla użytkowników indywidualnych. Komputery stały się narzędziem do prowadzenia ewidencji i własnych funkcji księgowych. Wszystko to odegrało zarówno pozytywną, jak i negatywną rolę w rozwoju baz danych. Pozorna prostota i dostępność komputerów osobistych i ich oprogramowania dała początek wielu amatorom. Deweloperzy ci, uważając się za ekspertów, zaczęli projektować krótkotrwałe bazy danych, które nie uwzględniały wielu cech obiektów świata rzeczywistego. Powstało wiele jednodniowych systemów, które nie spełniały praw rozwoju i wzajemnych połączeń rzeczywistych obiektów. Jednak dostępność komputerów osobistych zmusiła do zwrócenia się do nich użytkowników z wielu dziedzin wiedzy, którzy wcześniej nie wykorzystywali w swoich działaniach technologii komputerowej. Zapotrzebowanie na zaawansowane, przyjazne dla użytkownika programy do przetwarzania danych zmusiło producentów oprogramowania do dostarczania coraz to nowych systemów, które są powszechnie nazywane desktopowymi (desktopowymi) systemami DBMS. Duża konkurencja wśród dostawców wymusiła ulepszanie tych systemów, oferowanie nowych funkcji, ulepszanie interfejsu i wydajności systemów, obniżanie ich kosztów. Obecność na rynku dużej liczby SZBD realizujących podobne funkcje wymagała opracowania metod eksport-import danych dla tych systemów i odkrywanie formatów przechowywania danych.

Ale nawet w tym okresie pojawili się amatorzy, którzy wbrew zdrowemu rozsądkowi opracowali własny DBMS za pomocą standardowe języki programowanie. To był ślepy zaułek, bo dalszy rozwój pokazał, że dużo trudniej jest przenieść dane z niestandardowych formatów do nowego DBMS, a w niektórych przypadkach wymagały takich kosztów pracy, że łatwiej byłoby stworzyć wszystko od podstaw, ale dane nadal musiał zostać przeniesiony do nowego, bardziej obiecującego DBMS. I to też było wynikiem niedoszacowania funkcji, jakie miał pełnić SZBD.

Cechy tego etapu są następujące:

  • Wszystkie DBMS zostały zaprojektowane w celu stworzenia bazy danych z dostępem w większości na wyłączność. I to jest zrozumiałe. Komputer jest osobisty, nie był podłączony do sieci, a baza danych na nim została stworzona do pracy jednego użytkownika. W rzadkich przypadkach zakładano sekwencyjną pracę kilku użytkowników, np. najpierw operatora, który wprowadzał dokumenty księgowe, a następnie głównego księgowego, który ustalał zapisy odpowiadające dokumentom podstawowym.
  • Większość DBMS miała rozbudowany i wygodny interfejs użytkownika. W większości było tryb interaktywny praca z bazą danych zarówno w ramach opisu bazy danych, jak iw ramach projektowania zapytań. Ponadto większość DBMS oferowała rozbudowany i wygodny zestaw narzędzi do tworzenia gotowych aplikacji bez programowania. Środowisko narzędziowe składało się z gotowych elementów aplikacji w postaci szablonów formularzy ekranowych, raportów, etykiet (Etykiet), graficznych projektantów zapytań, które po prostu można było złożyć w jeden kompleks.
  • We wszystkich desktopowych DBMS obsługiwany był tylko zewnętrzny poziom prezentacji modelu relacyjnego, czyli tylko zewnętrzny tabelaryczny widok struktur danych.
  • W obecności języków manipulacji danymi wysokiego poziomu typu algebra relacyjna i SQL w desktopowym DBMS, obsługiwane były języki niskiego poziomu do manipulowania danymi na poziomie poszczególnych wierszy tabeli.
  • Desktop DBMS brakowało środków do utrzymania referencyjnej i strukturalnej integralności bazy danych. Funkcje te miały pełnić aplikacje, jednak niedostatek narzędzi do tworzenia aplikacji czasami na to nie pozwalał, w takim przypadku funkcje te musiał wykonywać użytkownik, wymagając od niego dodatkowej kontroli przy wprowadzaniu i zmienianiu informacji przechowywanych w Baza danych.
  • Obecność wyłącznego trybu działania faktycznie doprowadziła do degeneracji funkcji administrowania bazą danych iw związku z tym do braku narzędzi do administrowania bazą danych.
  • I wreszcie ostatnią i obecnie bardzo pozytywną cechą są stosunkowo skromne wymagania sprzętowe desktopowego DBMS. W pełni funkcjonalne aplikacje opracowane na przykład na Clipperze działały na PC 286.
  • W zasadzie nawet trudno nazwać je pełnoprawnym DBMS. Wybitni Przedstawiciele z tej rodziny są DBMS dBase (DbaseIII+, DbaseIV), FoxPro, Clipper, Paradox, które do niedawna były bardzo szeroko stosowane.

Rozproszone bazy danych

Wiadomo, że historia rozwija się spiralnie, więc po procesie „personalizacji” rozpoczął się proces odwrotny – integracja. Liczba sieci lokalnych mnoży się, coraz więcej informacji jest przesyłanych między komputerami, pojawia się dotkliwy problem spójności danych przechowywanych i przetwarzanych w różnych miejscach, ale logicznie ze sobą powiązane są zadania związane z przetwarzaniem równoległym transakcje - sekwencje operacji na bazie danych, przenoszące ją z jednego spójnego stanu do innego spójnego stanu. Pomyślne rozwiązanie tych problemów prowadzi do pojawienia się rozproszone bazy danych które zachowują wszystkie zalety desktopowego DBMS, a jednocześnie pozwalają na organizację równoległego przetwarzania informacji i zachowanie integralności bazy danych.

Cechy tego etapu:

  • Prawie wszystkie nowoczesne DBMS zapewniają obsługę pełnego modelu relacyjnego, a mianowicie:
    • O integralności strukturalnej - dopuszczalne są tylko dane przedstawione w postaci relacji modelu relacyjnego;
    • O integralności językowej, czyli językach manipulacji danymi wysokiego poziomu (głównie SQL);
    • O integralności referencyjnej, kontroli zgodności z integralnością referencyjną przez cały okres działania systemu oraz gwarancji, że DBMS nie naruszy tych ograniczeń.
  • Większość nowoczesnych SZBD przeznaczona jest do architektury wieloplatformowej, co oznacza, że ​​mogą pracować na komputerach o różnej architekturze i pod różnymi systemami operacyjnymi, a dostęp do danych zarządzanych przez SZBD na różnych platformach jest praktycznie nie do odróżnienia dla użytkowników.
  • Konieczność wsparcia wieloużytkownikowej pracy z bazą danych oraz możliwość zdecentralizowanego przechowywania danych wymagały rozwoju narzędzi do administrowania bazą danych z realizacją ogólnej koncepcji narzędzi ochrony danych.
  • Potrzeba nowych wdrożeń spowodowała powstanie poważnych prac teoretycznych dotyczących optymalizacji implementacji rozproszonych baz danych oraz pracy z rozproszonymi transakcjami i zapytaniami z implementacją wyników uzyskanych w komercyjnych DBMS.
  • Aby nie stracić klientów, którzy wcześniej pracowali na desktopowym DBMS, prawie wszystkie nowoczesne DBMS mają narzędzia do łączenia aplikacji klienckich opracowanych przy użyciu desktopowego DBMS oraz narzędzia do eksportu danych z formatów desktopowych DBMS drugiego etapu rozwoju.
  • Do tego etapu opracowano szereg standardów w ramach języków opisywania i manipulowania danymi, począwszy od SQL89, SQL92, SQL99, po technologie wymiany danych pomiędzy różnymi DBMS, do których należy protokół ODBC (Open Łączność z bazą danych), zaproponowana przez firmę Microsoft.
  • To właśnie temu etapowi można przypisać początek prac związanych z koncepcją obiektowych baz danych – OODB. MS Access 97 oraz wszystkie nowoczesne serwery bazodanowe Oracle7.3, Oracle 8.4 MS SQL6.5, MS SQL7.0, System 10, System 11, Informix, DB2, SQL Base i inne nowoczesne serwery bazodanowe, których jest obecnie kilkadziesiąt.

Perspektywy rozwoju systemów zarządzania bazami danych

Ten etap charakteryzuje się pojawieniem się nowej technologii dostępu do danych - intranet.Główna różnica między tym podejściem a technologią klient-serwer polega na tym, że nie ma potrzeby używania specjalistycznego oprogramowania klienckiego. Dostęp do zdalnej bazy danych uzyskuje się za pomocą standardowej przeglądarki internetowej, takiej jak Microsoft Internet Explorer lub Netscape Navigator, a dla użytkownika końcowego dostęp do danych jest podobny do przeciągania Sieć WWW(patrz rys. 1.1). Jednocześnie kod wbudowany w strony HTML ładowane przez użytkownika, zwykle napisany w Javie, Java-script, Perl i innych, śledzi wszystkie działania użytkownika i tłumaczy je na niskopoziomowe zapytania SQL do bazy danych, wykonując w ten sposób praca, która w technologii klient-serwer jest zaangażowana w program klienta. Wygoda tego podejścia doprowadziła do tego, że zaczęto go wykorzystywać nie tylko do zdalnego dostępu do baz danych, ale także dla użytkowników sieci lokalnej przedsiębiorstwa. Przy użyciu tej architektury można w prosty i wydajny sposób zbudować proste zadania przetwarzania danych, które nie są związane ze złożonymi algorytmami, które wymagają skoordynowanych zmian danych w wielu połączonych ze sobą obiektach. W takim przypadku nie trzeba instalować dodatkowego oprogramowania klienckiego, aby połączyć nowego użytkownika z możliwością korzystania z tego zadania. Jednak zadania złożone algorytmicznie zaleca się realizować w architekturze „klient-serwer” wraz z rozwojem specjalnego oprogramowania klienckiego.

WYGLĄD DBMS Historia rozwoju DBMS ma ponad 30 lat. W 1968 roku uruchomiono pierwszy przemysłowy system DBMS IMS firmy IBM. W 1975 roku pojawił się pierwszy standard asocjacyjny dla języków systemów przetwarzania danych – Conference of Data System Languages ​​(CODASYL), który zdefiniował szereg fundamentalnych pojęć w teorii systemów bazodanowych, które wciąż są fundamentalne dla danych sieciowych Model. Duży wkład w dalszy rozwój teorii baz danych wniósł amerykański matematyk E.F. Codd, który jest twórcą relacyjnego modelu danych. W 1981 roku E.F. Codd otrzymał prestiżową nagrodę Turinga od American Association for Computing Machinery za model relacyjny i algebrę relacyjną.

PIERWSZY ETAP - BAZY DANYCH NA DUŻYCH KOMPUTERACH Pierwszy etap rozwoju DBMS wiąże się z organizacją baz danych na dużych maszynach takich jak IBM 360/370, komputery EC i minikomputery typu PDP 11 (Digital Equipment Corporation - DEC), różne HP modele (firmy Hewlett Packard). Bazy danych były przechowywane w zewnętrznej pamięci komputera centralnego, użytkownikami tych baz danych były zadania uruchamiane głównie w trybie wsadowym. Interaktywny tryb dostępu zapewniono za pomocą terminali konsolowych, które nie posiadały własnych zasobów obliczeniowych (procesor, pamięć zewnętrzna) i służyły jedynie jako urządzenia wejścia-wyjścia dla komputera centralnego.

CECHY PIERWSZEGO ETAPU Wszystkie DBMS są oparte na potężnych wieloprogramowych systemach operacyjnych (MVS, SVM, RTE, OSRV, RSX, UNIX), dlatego wspierana jest głównie praca ze scentralizowaną bazą danych w trybie rozproszonego dostępu. Funkcje zarządzania alokacją zasobów są wykonywane głównie przez system operacyjny (OS). Obsługiwane są języki manipulacji danymi niskiego poziomu skoncentrowane na metodach dostępu do danych nawigacyjnych. Istotną rolę przywiązuje się do administrowania danymi.

Trwają poważne prace nad uzasadnieniem i sformalizowaniem relacyjnego modelu danych, powstał pierwszy system (System R) realizujący ideologię relacyjnego modelu danych. Prowadzone są prace teoretyczne nad optymalizacją zapytań i zarządzaniem rozproszonym dostępem do scentralizowanej bazy danych, wprowadzono pojęcie transakcji. Wyniki badań naukowych są otwarcie dyskutowane w prasie, istnieje potężny napływ publikacji publicznych dotyczących wszystkich aspektów teorii i praktyki baz danych, a wyniki badań teoretycznych są aktywnie wdrażane w komercyjnych SZBD.

ETAP DRUGI - WIEK KOMPUTERÓW OSOBISTYCH CECHY ETAPU DRUGIEGO Wszystkie DBMS zostały zaprojektowane do tworzenia baz danych z głównie wyłącznym dostępem. I to jest zrozumiałe. Komputer jest osobisty, nie był podłączony do sieci, a baza danych na nim została stworzona do pracy jednego użytkownika. W rzadkich przypadkach zakładano sekwencyjną pracę kilku użytkowników, np. najpierw operatora, który wprowadzał dokumenty księgowe, a następnie głównego księgowego, który ustalał zapisy odpowiadające dokumentom podstawowym. Większość SZBD posiadała rozbudowany i wygodny interfejs użytkownika, większość z nich posiadała interaktywny tryb pracy z bazą danych, zarówno w ramach opisu bazy danych, jak iw ramach projektowania zapytań. Ponadto większość DBMS oferowała zaawansowane i wygodne narzędzia do tworzenia gotowych aplikacji bez programowania. Środowisko narzędziowe składało się z gotowych elementów aplikacji w postaci szablonów formularzy ekranowych, raportów, etykiet (Etykiet), graficznych projektantów zapytań, które po prostu można było złożyć w jeden kompleks. We wszystkich desktopowych DBMS obsługiwany był tylko zewnętrzny poziom prezentacji modelu relacyjnego, czyli tylko zewnętrzny tabelaryczny widok struktur danych.

Chociaż istniały języki manipulacji danymi wysokiego poziomu, takie jak algebra relacyjna i SQL, systemy DBMS dla komputerów stacjonarnych obsługiwały języki manipulacji danymi niskiego poziomu na poziomie poszczególnych wierszy tabeli. Desktop DBMS brakowało środków do utrzymania referencyjnej i strukturalnej integralności bazy danych. Funkcje te miały pełnić aplikacje, jednak niedostatek narzędzi do tworzenia aplikacji czasami na to nie pozwalał, w takim przypadku funkcje te musiał wykonywać użytkownik, wymagając od niego dodatkowej kontroli przy wprowadzaniu i zmienianiu informacji przechowywanych w Baza danych. Obecność wyłącznego trybu działania faktycznie doprowadziła do degeneracji funkcji administrowania bazą danych iw związku z tym do braku narzędzi do administrowania bazą danych. I wreszcie ostatnią i obecnie bardzo pozytywną cechą są stosunkowo skromne wymagania sprzętowe desktopowego DBMS. W pełni funkcjonalne aplikacje opracowane na przykład na Clipperze działały na PC 286.

ETAP TRZECI – ROZPROSZONE BAZY DANYCH Powszechnie wiadomo, że historia rozwija się spiralnie, więc po procesie „personalizacji” rozpoczął się proces odwrotny – integracja. Liczba sieci lokalnych mnoży się, coraz więcej informacji będzie przesyłanych między komputerami, pojawia się dotkliwy problem spójności danych przechowywanych i przetwarzanych w różnych miejscach, ale logicznie ze sobą powiązane są zadania związane z równoległym przetwarzaniem transakcji - sekwencje operacji na bazie danych, przenoszące ją z jednego spójnego stanu do drugiego spójnego stanu. Pomyślne rozwiązanie tych problemów prowadzi do powstania rozproszonych baz danych, które zachowują wszystkie zalety desktopowego DBMS, a jednocześnie umożliwiają organizowanie równoległego przetwarzania informacji i zachowanie integralności bazy danych.

CECHY TRZECIEGO ETAPU Prawie wszystkie nowoczesne DBMS zapewniają wsparcie dla pełnego modelu relacyjnego, a mianowicie: integralność strukturalna - poprawne są tylko dane przedstawione w postaci relacji modelu relacyjnego; integralność językowa, czyli języki manipulacji danymi wysokiego poziomu (głównie SQL); integralność referencyjna - kontrola nad przestrzeganiem integralności referencyjnej przez cały okres działania systemu i gwarantuje, że SZBD nie naruszy tych ograniczeń. Większość nowoczesnych DBMS jest zaprojektowana dla architektury wieloplatformowej, co oznacza, że ​​mogą pracować na komputerach o różnej architekturze i pod różnymi systemami operacyjnymi, podczas gdy dostęp do danych zarządzanych przez DBMS na różnych platformach jest dla użytkowników prawie nie do odróżnienia.

Konieczność wsparcia wieloużytkownikowej pracy z bazą danych oraz możliwość zdecentralizowanego przechowywania danych wymagały rozwoju narzędzi do administrowania bazą danych z realizacją ogólnej koncepcji narzędzi ochrony danych. Potrzeba nowych wdrożeń spowodowała powstanie poważnych prac teoretycznych nad optymalizacją implementacji rozproszonych baz danych oraz pracy z rozproszonymi transakcjami i zapytaniami z implementacją wyników uzyskanych w komercyjnych DBMS. Aby nie stracić klientów, którzy wcześniej pracowali na desktopowym DBMS, prawie wszystkie nowoczesne DBMS mają narzędzia do łączenia aplikacji klienckich opracowanych przy użyciu desktopowego DBMS oraz narzędzia do eksportu danych z formatów desktopowych.

DBMS TRZECI ETAP ROZWOJU Ten etap obejmuje opracowanie szeregu standardów w ramach języków opisu i manipulacji danymi (SQL 89, SQL 92, SQL 99) oraz technologii wymiany danych pomiędzy różnymi DBMS, które obejmują: protokół ODBC (Open Data. Base Connectivity, zaproponowany przez Microsoft. Ten etap obejmuje również rozpoczęcie prac związanych z koncepcją obiektowych baz danych – OODB. Za przedstawicieli DBMS związanych z drugim etapem można uznać MS Access 97 oraz wszystkie nowoczesne serwery bazodanowe Ox1e 7.3, 0x1e 8.4, MS SQL 6.5, MS SQL 7.0, System 11, Informix, DB 2, SQL Base i inne nowoczesne serwery bazodanowe, których jest obecnie kilkadziesiąt.

ETAP CZWARTY - PERSPEKTYWY ROZWOJU SYSTEMÓW ZARZĄDZANIA BAZAMI DANYCH Etap ten charakteryzuje się pojawieniem się nowej technologii dostępu do danych - intranetu. Główna różnica między tym podejściem a technologią klient-serwer polega na tym, że nie ma potrzeby używania specjalistycznego oprogramowania klienckiego. Do pracy ze zdalną bazą danych wykorzystywana jest standardowa przeglądarka internetowa, taka jak Microsoft Internet. Explorer, a dla użytkownika końcowego proces dostępu do danych jest podobny do korzystania z Internetu. Jednocześnie kod osadzony na ładowanych przez użytkownika stronach HTML, zwykle napisany w Javie, Java-script, Perl i innych, śledzi wszystkie działania użytkownika i tłumaczy je na niskopoziomowe zapytania SQL do bazy danych, wykonując w ten sposób praca, która w technologii klient-serwer jest zaangażowana w program klienta.

Wygoda tego podejścia doprowadziła do tego, że zaczęto go wykorzystywać nie tylko do zdalnego dostępu do baz danych, ale także dla użytkowników sieci lokalnej przedsiębiorstwa. Przy użyciu tej architektury można w prosty i wydajny sposób zbudować proste zadania przetwarzania danych, które nie są związane ze złożonymi algorytmami, które wymagają skoordynowanych zmian danych w wielu połączonych ze sobą obiektach. W takim przypadku nie trzeba instalować dodatkowego oprogramowania klienckiego, aby połączyć nowego użytkownika z możliwością korzystania z tego zadania. Jednak zadania złożone algorytmicznie zaleca się realizować w architekturze „klient-serwer” wraz z rozwojem specjalnego oprogramowania klienckiego.

WNIOSEK Każde z powyższych podejść do pracy z danymi ma swoje zalety i wady, które determinują zakres zastosowania danej metody, a obecnie wszystkie podejścia są szeroko stosowane.

Historia rozwoju baz danych………………………………………………………3-5

Wstępne koncepcje. Etapy………………………………………………..6-8

Funkcje i wymagania………………………………………………………9-10

Wniosek………………………………………………………………12-13

Wykorzystywane strony………………………………………………………..14

Historia rozwoju bazy danych.

Historia rozwoju baz danych sięga lat 60-tych. W tamtych czasach informacje były gromadzone i przechowywane w plikach. Każdy plik zawierał określone informacje, a wiele plików było wymaganych, aby objąć cały obszar tematyczny. Na przykład informacje o produkcie były przechowywane w jednym pliku, a informacje o kliencie były przechowywane w innym. Informacje o zakupie określonych towarów przez określonych klientów – w pkt. Ta organizacja danych wprowadziła własne trudności:

· prezentacja danych w każdym pliku była inna;

Konieczne było skoordynowanie danych w różnych plikach, aby zapewnić spójność informacji;

· konieczne było wybranie, jakie dane iw jakiej formie będą pojawiać się w takich plikach jak np. plik zakupów towarów;

Trudności w tworzeniu aplikacji i aktualizowaniu ich w przypadku zmiany danych.

· Sytuacja wymagała poprawy i wiele osób ciężko pracowało, aby stworzyć coś bardziej przyjaznego dla użytkownika. Na początku lat 70., około 10 lat później, sytuacja zaczęła się poprawiać i pojawiły się pierwsze bazy danych.

W 1970 roku EF Codd opublikował artykuł, który stanowił podstawę relacyjnego modelu danych. Zaletą tego modelu przechowywania danych jest minimalna duplikacja danych oraz eliminacja niektórych rodzajów błędów występujących w innych modelach. Zgodnie z tym modelem dane są przechowywane w postaci tabel z kolumnami i wierszami. Nie wszystkie rodzaje tabel są akceptowalne dla modelu relacyjnego, a niechciane tabele można znormalizować w celu spełnienia wymagań modelu relacyjnego. Podczas procesu normalizacji tabela jest zwykle dzielona na dwie lub więcej akceptowalnych tabel.

W 1979 roku mała firma o nazwie Ashton-Tate wypuściła produkt dla mikrokomputerów o nazwie dBase-II, nazywając go relacyjnym DBMS. Dzięki skutecznej taktyce firma była w stanie rozesłać ponad 100 000 kopii produktu wśród użytkowników komputerów Osborne. Wielu użytkowników komputerów pisało dla nich programy i wkrótce dBase stał się bardzo popularnym systemem DBMS. Ashton-Tate została następnie przejęta przez Borland. W rzeczywistości produkt dBase nie był relacyjnym DBMS, ale językiem programowania z zaawansowanymi funkcjami przetwarzania plików. Podczas gdy dBase ewoluował, inni dostawcy zaczęli przenosić swoje komercyjne systemy baz danych mainframe na mikrokomputery. Przykładami takich DBMS są Oracle, Ingress i Focus. Przeniesienie DBMS na mikrokomputery było powodem ulepszenia interfejsu użytkownika, co doprowadziło do wzrostu liczby mikrokomputerów współpracujących z bazami danych.

W połowie lat 80. użytkownicy zaczęli podłączać swoje komputery do sieci lokalnych, co doprowadziło do powstania modelu klient-serwer, a także modelu udostępniania plików. Sieć umożliwiła współdzielenie drogich drukarek i dysków twardych Duża pojemność. Na dłuższą metę użytkownicy chcieli udostępniać swoje bazy danych, co przyspieszyło rozwój aplikacji bazodanowych dla wielu użytkowników dla sieci lokalnych. Ponieważ przetwarzanie danych przez wielu użytkowników w sieci lokalnej różni się od przetwarzania danych przez wielu użytkowników na komputerze mainframe obecnością kilku komputerów, pojawiły się dodatkowe trudności w koordynowaniu działań komputerów. Tak powstała architektura przetwarzania danych klient-serwer. Istnieje również prostsza, ale mniej niezawodna architektura oparta na dzielenie się akta.

Obecnie aktywnie rozwijają się bazodanowe aplikacje internetowe, a także bazy danych wykorzystujące technologie internetowe. Internetowe aplikacje bazodanowe udostępniają dane za pośrednictwem przeglądarki użytkownika, podczas gdy internetowe bazy danych po prostu korzystają z przeglądarek klienckich i technologii, takich jak XML i DHTML, do pracy z bazą danych bez publikowania danych w Internecie.

Istnieją dwie inne technologie baz danych, które są możliwe, ale jeszcze nie zostały zaimplementowane. Są to bazy danych zorientowane obiektowo i rozproszone. Rozproszone bazy danych to bazy danych organizacji rozproszone na wielu komputerach w sieci lokalnej organizacji. Dzięki tej architekturze możliwy jest bardziej elastyczny podział obciążenia pomiędzy działy przedsiębiorstwa, jednak wdrożenie takiego systemu wiąże się z szeregiem problemów, z których część nie została jeszcze rozwiązana. Bazy danych obiektowych są pozycjonowane jako środek do przechowywania używanych struktur danych

w programowaniu obiektowym. Ponieważ obiekty są o rząd wielkości bardziej złożone niż struktury, implementacja baz danych będzie dość złożona. Ponadto rozwój baz danych zorientowanych obiektowo jest ograniczony przez obecność ogromnej liczby relacyjnych baz danych, które przechowują ogromne ilości informacji.

Istnieją różne definicje bazy danych. Zazwyczaj są one niekompletne lub zbyt nieporęczne. Podajemy prostą definicję, rozszerzając ją w miarę pojawiania się nowych koncepcji.

Baza danych (DB) to zestaw wzajemnie połączonych danych na nośnikach maszyny, przeznaczony do użytku w interaktywnym (online) trybie dostępu oraz w aplikacje. Zazwyczaj baza danych jest tworzona w celu przechowywania i uzyskiwania dostępu do danych z określonego obszaru tematycznego, to znaczy jest to model informacyjny klasy obiektów.

System zarządzania bazą danych (DBMS) to narzędzie językowe i programowe do organizowania, uzupełniania, modyfikowania i korzystania z bazy danych. Rozróżnij DBMS uniwersalny i specjalistyczny. Uniwersalne SZBD są systemami szeroko zakrojonymi i nie mają jasno określonych granic zastosowań, natomiast SZBD specjalistyczne są tworzone dla baz danych o konkretnym przeznaczeniu: bankowym, księgowym itp. SZBD specjalistyczne w największym stopniu uwzględniają specyfikę tematyki , co znajduje odzwierciedlenie w interfejsie i procedurach przetwarzania informacji.

Istnieje klasa przemysłowych lub komercyjnych DBMS jako systemów opracowanych przez profesjonalne firmy w dziedzinie tworzenia oprogramowania, przetestowanych w praktyce i powielonych na pewnych warunkach komercyjnych. Przemysłowe DBMS są stosunkowo tanie, dość niezawodne i udokumentowane. Zwykle ich pojawienie się poprzedzone jest eksperymentalnymi opracowaniami, wersje próbne, wstępne publikacje itp.

Wstępne koncepcje. Gradacja.

Administrator bazy danych to osoba lub grupa osób odpowiedzialna za prowadzenie bazy danych. Administrator dystrybuuje prawa dostępu do informacji, wprowadza zmiany w strukturze bazy danych, odpowiada za bezpieczeństwo danych i ich odzyskiwanie w przypadku awarii, aktualizuje oprogramowanie w miarę pojawiania się nowych wersji. Administrator musi mieć uprawnienia programisty systemowego i jednocześnie jasno rozumieć problemy użytkowników.

Fizyczny opis danych jest sposobem przedstawiania informacji na nośnikach maszynowych.

Logiczny opis danych jest reprezentacją informacji z punktu widzenia użytkownika.

Logiczna reprezentacja danych nie zawsze ściśle odpowiada fizycznej. Na przykład użytkownik prezentuje plik jako coś całego i niepodzielnego, jednak na nośnikach zewnętrznych plik może być prezentowany we fragmentach, w klastrach. Ponadto niektóre pola, takie jak teksty o nieokreślonej długości lub obrazy, mogą być fizycznie umieszczone w innych plikach.

Fizyczna niezależność danych – możliwość zmiany fizycznej lokalizacji danych bez zmiany ich struktury logicznej i programów użytkowych.

Niezależność danych logicznych - możliwość zmiany logicznej struktury danych (dodawanie nowych pól, zmiana kolejności pól i ich wymiarów) przy zachowaniu wydajności aplikacji korzystających z poprzedniej reprezentacji.

Na przykład fizyczna niezależność danych jest zwykle wspierana przez system operacyjny. Niezależność danych logicznych nie jest zapewniona w aplikacjach Pascal i C.

Koncepcja bazy danych powstała pod koniec lat 60. ubiegłego wieku i od tego czasu stale się rozwija. Znany specjalista od baz danych D. Martin rozważa kilka etapów rozwoju technologii przetwarzania danych.

Pierwszy krok opracowany na początku lat 60. ubiegłego wieku i charakteryzuje się następującymi cechami:

Informacje są przechowywane głównie w sekwencyjnych plikach na taśmach magnetycznych;

Fizyczna struktura danych ściśle odpowiada logicznej;

Wiele kopii plików jest przechowywanych jako archiwum;

pliki przeznaczone są dla jednego programu;

programista planuje nie tylko logiczną, ale także fizyczną organizację danych;

· Gdy fizyczna lub logiczna organizacja danych ulegnie zmianie, program musi zostać przerobiony.

Wady pierwszego etapu są oczywiste. Powiązanie plików z jednym programem prowadzi do wielokrotnego powielania i niespójności informacji w różnych aplikacjach. Zwiększa się złożoność tworzenia programu, ponieważ każdy programista musi zapewnić procedury dostępu do danych i ich modyfikowania. Nawet przy niewielkich zmianach w strukturze danych programy użytkowe muszą zostać poprawione.

Druga faza odnosi się do połowy lat 60. i ma następujące cechy:

· Pojawiły się zewnętrzne urządzenia bezpośredniego dostępu, które umożliwiały swobodny dostęp do rekordów (bezpośredni, indeksowy sekwencyjny);

wszedł w użycie procedury wyszukiwania rekordu według pola kluczowego (zwykle jednego);

· Stało się możliwe przesyłanie plików do innych urządzeń zewnętrznych bez zmiany programów użytkowych, co było zwykle zapewniane za pomocą języka zarządzania danymi odpowiedniego systemu operacyjnego.

Pomimo oczywistego postępu, pozostało wiele niedociągnięć pierwszego etapu.

Trzeci etap rozpoczął się pod koniec lat 60-tych. Za główne osiągnięcie można uznać świadomość konieczności centralizacji danych w celu dostępu do różnych aplikacji. Zmniejsza to nadmiarowość i niespójność informacji, aplikacje korzystają ze standardowych narzędzi dostępu do danych. Na tym etapie wzrosła złożoność organizacji danych, skuteczne wyszukiwanie rekordy dla wielu kluczy.

Na tym etapie pojawił się pierwszy DBMS. Przede wszystkim opracowano teorię i praktykę budowania hierarchicznych i sieciowych DBMS. W tych modelach relacje danych są opisane za pomocą ogólnych drzew i wykresów.

Czwarty etap sięga drugiej połowy lat siedemdziesiątych. Na tym etapie w różnym stopniu zaimplementowano następujące główne cechy DBMS:

logiczna i fizyczna niezależność danych;

wygoda tworzenia bazy danych;

bezpieczeństwo, poufność, integralność danych;

wyszukiwać informacje na temat różnych wniosków;

· narzędzia językowe dla administratora, programisty aplikacji, użytkownika nieprofesjonalnego.

Bezpieczeństwo danych, poufność i integralność danych to pojęcia bliskie, ale jednak różne. Bezpieczeństwo to ochrona danych przed nieautoryzowaną modyfikacją innych niż administrator DBMS. Poufność ogólnie oznacza odmowę niektórym użytkownikom dostępu do określonych informacji. Wreszcie integralność danych to przede wszystkim ich spójność. Naruszenia integralności są możliwe w przypadku nieprawidłowej pracy użytkowników i awarii sprzętu.

Od początku lat 70., po publikacjach E. Codda, rozpoczęto aktywne badania nad relacyjnym modelem danych. Tabele stanowią podstawę relacyjnego DBMS. Aż do lat 80. relacyjne DBMS były uważane za obiecujące, ale trudne do wdrożenia.

Doświadczenie w korzystaniu z pierwszych DBMS pozwoliło zidentyfikować tak ważne dla nich wymagania jak:

naturalna reprezentacja różnych struktur danych;

występ;

· minimalne koszty tworzenie i utrzymywanie bazy danych;

różnorodne możliwości wyszukiwania, w tym nieplanowane z góry;

Prostota i życzliwość;

Obecność nieproceduralnych języków użytkownika (co dostać, a nie jak).

W ten sposób pod koniec lat 70. powstały podstawowe koncepcje DBMS, zgodnie z którymi powstał pierwszy przemysłowy DBMS. Skupiały się one głównie nie na zwykłych użytkownikach, ale na programistach o dość wysokich kwalifikacjach.

Nowy etap w rozwoju DBMS nadszedł wraz z pojawieniem się komputerów osobistych. Na tym etapie do głosu doszły takie cechy SZBD, jak:

Przyjazność dla użytkownika i wygoda (opracowane okna dialogowe, menu, interfejs okna, pomoc kontekstowa);

Uproszczenie uciążliwych schematów DBMS dzięki częściowej implementacji szeregu właściwości;

Prawie całkowite przejście na relacyjny DBMS;

orientacja nie tylko na programistę, ale także na użytkownika nieprofesjonalnego;

dostępność narzędzi automatyzacji programowania w postaci generatorów formularzy, menu, raportów, zapytań.

Nowe DBMS zostały rozprowadzone wraz z komputery osobiste ogromne edycje. Na przykład baza danych dBase III Plus firmy Ashton-Tate odnotowała w 1986 roku ponad 2 miliony sprzedaży. Ogólnie rzecz biorąc, DBMS linii dBase okazał się jednym z najpopularniejszych. Język programowania xBase, który leży u ich podstaw, stał się klasykiem gatunku. To nie przypadek, że wiele SZBD używało również dialektów tego języka. W Rosji szczególnie popularne stały się FoxBase+, a później FoxPro DBMS firmy Fox Software. Później Fox Software został przejęty przez MicroSoft, a odpowiednie produkty zostały wydane pod jego marką. Takie DBMS jak Paradox firmy Borland, Access firmy MicroSoft, sieciowy DBMS dB Vista firmy Raima Incorporation i wiele innych stały się powszechne. W Rosji pojawiły się zrusyfikowane wersje niektórych z tych produktów.

Kolejny etap rozwoju SZBD wiąże się ze wzrostem potrzeb informacyjnych i rozwojem technologie sieciowe. Naturalnie, wraz ze złożonością architektury, potrzebne były nowe opracowania teoretyczne, a oprogramowanie stało się wielokrotnie bardziej skomplikowane.

Po pierwsze, rozpowszechniły się sieciowe DBMS o architekturze serwera plików. Baza danych w sieci lokalnej jest centralnie przechowywana na dedykowanym komputerze zwanym serwerem plików. Kopie DBMS są instalowane na stronach klienckich. Wymagane dane są wymagane przez sieć. W przypadku zmiany bazy danych przez sieć przesyłane są również informacje korygujące. Jeśli intensywnie pracujesz z danymi, przepustowość sieci może być niewystarczająca.

DBMS klient-serwer zmniejsza ruch w sieci. Klient wysyła zapytanie do bazy danych, które jest przetwarzane na serwerze, zwracając wynik. DBMS klient-serwer może skalować do setek i tysięcy zadań. Język zapytań SQL (Structured Query Language) stał się szeroko rozpowszechniony, obsługiwany przez standardy. Zapytanie do serwera jest z reguły tworzone w języku SQL, więc DBMS klient-serwer zaczęto nazywać serwerami SQL. Najbardziej znane serwery SQL to SQL Server, DB2, Oracle, Informix, Ingres, InterBase, MySQL.

Wreszcie pojawiły się trójwarstwowe DBMS, które wykorzystują łącze pośrednie - serwer aplikacji, który jest pośrednikiem między klientem a serwerem bazy danych. Serwer aplikacji został zaprojektowany tak, aby całkowicie uwolnić klienta od zmartwień związanych z zarządzaniem danymi. Rezultatem jest „lekki” klient, który nie wymaga dużych zasobów.

Jednym z trendów w rozwoju nowoczesnych technologii informatycznych jest rozproszony charakter informacji. Dane są na komputerach różne modele działają pod kontrolą różnych systemów operacyjnych, a dostęp do danych realizowany jest przez heterogeniczne oprogramowanie. Same komputery są od siebie geograficznie oddalone. Aktywnie rozwijający się rozproszony DBMS może zawierać setki serwerów baz danych i pracować w przedsiębiorstwach na skalę państwową. Zainteresowanie rozproszonymi systemami DBMS wynika w dużej mierze z szybkiego rozwoju Internetu.

Główną część rynku zajmują obecnie relacyjne DBMS. Jednocześnie wiele zastosowań, takich jak systemy komputerowego wspomagania projektowania i sterowania, systemy informacji geograficznej, systemy przechowywania i wyszukiwania dokumentów, systemy multimedialne i hipermedialne, wymagają bardziej złożonej organizacji danych, których nie można przedstawić w postaci płaskich tabel. W tym zakresie prowadzone są aktywne prace badawczo-rozwojowe w zakresie tworzenia obiektowych SZBD. Pośrednią pozycję zajmuje obiektowo-relacyjny DBMS, w którym starają się wzmocnić stare cechy nowymi funkcjami.

Wniosek.

Chociaż przetwarzanie baz danych zawsze było ważnym tematem, popularność Internetu sprawiła, że ​​stał się on jedną z najbardziej poszukiwanych specjalizacji. Umiejętności, które rozwijasz i zdobyta wiedza, będą bardzo poszukiwane. Celem bazy danych jest pomoc ludziom i organizacjom w prowadzeniu ewidencji różnych rzeczy. Chociaż można w tym celu wykorzystać listy, przysparzają one wielu problemów. Trudno je zmienić bez powodowania niespójności, usuwanie z list może mieć niezamierzone konsekwencje, a niekompletne dane trudno zarejestrować. Dodatkowo przy wprowadzaniu danych łatwo o niespójności. Wreszcie, różne części organizacji chcą zachować niektóre dane w sposób współdzielony, a niektóre w sposób wyłączny. Jest to trudne do zorganizowania podczas korzystania z list.

Bazy danych składają się z grup tabel relacyjnych. W większości przypadków każda tabela zawiera dane na określony temat. Utrzymanie danych w ten sposób rozwiązuje wszystkie problemy wymienione dla list. Relacje w tabelach są reprezentowane różne sposoby. W tym rozdziale relacje zostały przedstawione przez nadanie każdemu wierszowi unikalnego identyfikatora i użycie tego identyfikatora do połączenia wiersza w jednej tabeli z wierszem w innej tabeli. Klucze obce były również używane do reprezentowania relacji. Tabele można tworzyć za pomocą język SQL, który jest standardem branżowym dotyczącym obróbki stołów.

System baz danych składa się z czterech głównych elementów: użytkowników, aplikacji bazodanowych, DBMS i samej bazy danych. Użytkownicy korzystają z bazy danych do rozwiązywania swoich problemów. Aplikacje tworzą formularze, zapytania i raporty, wykonują logikę aplikacji i zarządzają przetwarzaniem bazy danych. DBMS tworzy, przetwarza i administruje bazą danych. Baza danych jest samodokumentującym się zbiorem zintegrowanych rekordów. Zawiera dane użytkownika, metadane, indeksy, procedury składowane, wyzwalacze i metadane aplikacji. Procedura składowana to program, który przetwarza część bazy danych i jest przechowywany w bazie danych. Wyzwalacz to procedura wywoływana po wystąpieniu określonego zdarzenia. Na ryc. 1.6 przedstawia funkcje komponentów bazy danych.

Technologia bazodanowa może być wykorzystywana w wielu aplikacjach. Niektóre bazy danych są używane przez jedną osobę, inne przez grupę osób, a jeszcze inne przez duże organizacje. W tabeli. 1.2 pokazuje niektóre z ich cech różne rodzaje bazy danych.

Podobnie jak wszystkie systemy informatyczne, systemy bazodanowe tworzone są w trzech fazach: wymagania, projektowanie i wdrożenie. W fazie formułowania wymagań tworzony jest model danych, czyli logiczna reprezentacja struktury bazy danych. Modele danych są ważne, ponieważ od nich zależy projektowanie baz danych i aplikacji. Diagram relacji encji jest narzędziem używanym do reprezentowania modelu danych.

Model danych jest konwertowany na tabele i relacje w fazie projektowania. Zaprojektowano również indeksy, ograniczenia, procedury składowane i wyzwalacze. Diagramy struktury danych są czasami używane w przypadku tabel dokumentów i ich relacji. W fazie implementacji tworzone są tabele, relacje i ograniczenia, zapisywane są procedury składowane i wyzwalacze, a baza danych jest wypełniana danymi i testowana. Obecnie tabele i związane z nimi konstrukcje są tworzone przy użyciu SQL lub narzędzi graficznych, które są częścią DBMS.

Lista witryn.

http://www.pgtk.edu.ru/lections/doku.php?id=bd_history

http://citforum.ru/database/articles/temporal/

http://www.sql.ru/articles/mssql/2006/031701iintroductionindatabases.shtml


Podobne informacje.