„World Wide Web” (World Wide Web, WWW). Internet i sieć WWW — hipermarket wiedzy

Czym jest sieć WWW?

Sieć lub „sieć” to zbiór połączonych ze sobą stron zawierających określone informacje. Każda taka strona może zawierać tekst, obrazy, wideo, audio i różne inne obiekty. Ale poza tym na stronach internetowych znajdują się tak zwane hiperłącza. Każde takie łącze prowadzi do innej strony, która znajduje się na innym komputerze w Internecie.

Różny zasoby informacyjne, które są ze sobą połączone za pomocą telekomunikacji i opierają się na hipertekstowej reprezentacji danych, tworzących sieć WWW (ang. World Wide Web, w skrócie WWW).

Hiperłącza łączą strony znajdujące się na różnych komputerach znajdujących się w różnych częściach świata. Ogromna liczba komputerów zjednoczonych w jednej sieci - to jest Internet i ” Sieć ogólnoświatowa” to ogromna liczba stron internetowych hostowanych na komputerach w sieci.

Każda strona internetowa w Internecie posiada adres – URL (ang. Uniform Resource Locator – unikalny adres, nazwa). To pod adresem można znaleźć dowolną stronę.

Jak powstała sieć WWW?

12 marca 1989 r. Tim Berners-Lee przedstawił projekt zarządowi CERN. ujednolicony system organizacja, przechowywanie i dostęp publiczny do informacji, które miały rozwiązać problem wymiany wiedzy i doświadczeń pomiędzy pracownikami Centrum. Problem dostępu do informacji o różne komputery Pracownicy Berners-Lee zaproponowali rozwiązanie go za pomocą programów przeglądarkowych, które zapewniają dostęp do serwera, na którym przechowywane są informacje hipertekstowe. Po udanej realizacji projektu Berners-Lee zdołał przekonać resztę świata do stosowania jednolitych standardów komunikacji internetowej z wykorzystaniem standardów Hypertext Transfer Protocol (HTTP) i Universal Markup Language (HTML).

Należy zauważyć, że Tim Berners-Lee nie był pierwszym twórcą Internetu. Pierwszy system protokołów zapewniający transfer danych między komputerami w sieci został opracowany przez pracowników amerykańskiej Agencji Zaawansowanych Projektów Badawczych Obrony (DARPA) Winton Cerf oraz Robert Kahn pod koniec lat 60. - początek lat 70. ubiegłego wieku. Berners-Lee zasugerował jedynie wykorzystanie możliwości sieci komputerowych do tworzenia nowy system organizacja informacji i dostęp do niej.

Jaki był prototyp sieci WWW?

Jeszcze w latach 60. XX wieku Departament Obrony USA postawił zadanie opracowania niezawodnego systemu przesyłania informacji na wypadek wojny. Amerykańska Agencja Zaawansowanych Projektów Badawczych (ARPA) zaproponowała stworzenie w tym celu sieci komputerowej. Nazwali go ARPANET (Advanced Research Projects Agency Network). Projekt połączył cztery instytucje naukowe – Uniwersytet Los Angeles, Stanford Research Institute oraz Uniwersytety Santa Barbara i Utah. Wszystkie prace zostały sfinansowane przez Departament Obrony USA.

Pierwszy transfer danych śieć komputerowa miało miejsce w 1969 roku. Profesor Uniwersytetu w Los Angeles wraz ze swoimi studentami próbował wejść do komputera Stanford i przekazać słowo „login”. Udało się przesłać tylko dwie pierwsze litery, L i O. Kiedy wpisali literę G, system komunikacji zawiódł, ale nastąpiła rewolucja internetowa.

Do 1971 r. w USA powstała sieć z 23 użytkownikami. Pierwszy program został opracowany do wysyłania E-mail przez sieć. W 1973 r. do sieci dołączyły University College London i Government Services w Norwegii, a sieć stała się międzynarodowa. W 1977 r. liczba internautów sięgnęła 100, w 1984 r. – 1000, w 1986 r. było już ponad 5000, w 1989 r. – ponad 100 tys. W 1997 roku było już 19,5 mln internautów.

Niektóre źródła podają datę pojawienia się sieci WWW dzień później - 13 marca 1989 r.

Sieć WWW (WWW)

Sieć ogólnoświatowa(Język angielski) ogólnoświatowa sieć) to rozproszony system, który zapewnia dostęp do powiązanych ze sobą dokumentów znajdujących się na różnych komputerach podłączonych do Internetu. Słowo sieć jest również używane w odniesieniu do sieci WWW. sieć„sieć”) i skrót www. Sieć WWW to największe na świecie wielojęzyczne repozytorium informacji. w formie elektronicznej: dziesiątki milionów powiązanych ze sobą dokumentów, które znajdują się na komputerach rozmieszczonych na całym świecie. Jest uważana za najpopularniejszą i najbardziej interesującą usługę w Internecie, która umożliwia dostęp do informacji niezależnie od jej lokalizacji. Aby poznać wiadomości, dowiedzieć się czegoś lub po prostu dobrze się bawić, ludzie oglądają telewizję, słuchają radia, czytają gazety, czasopisma, książki. World Wide Web oferuje również swoim użytkownikom audycje radiowe, informacje wideo, prasę, książki, ale z tą różnicą, że to wszystko można uzyskać bez wychodzenia z domu. Nie ma znaczenia w jakiej formie prezentowane są interesujące Cię informacje ( Dokument tekstowy, zdjęcie, wideo lub klip dźwiękowy) i gdzie te informacje są zlokalizowane geograficznie (w Rosji, Australii lub na Wybrzeżu Kości Słoniowej) - otrzymasz je w ciągu kilku minut na swój komputer.

Sieć WWW składa się z setek milionów serwerów WWW. Większość zasobów w sieci WWW to hiperteksty. Dokumenty hipertekstowe publikowane w sieci WWW nazywane są stronami internetowymi. Kilka stron internetowych, połączonych wspólnym tematem, projektem, a także połączonych linkami i zwykle znajdujących się na tym samym serwerze internetowym, nazywa się witryną internetową. Do pobierania i przeglądania stron internetowych wykorzystywane są specjalne programy - przeglądarki. Sieć WWW spowodowała prawdziwą rewolucję w technologia informacyjna i boom w rozwoju Internetu. Często mówiąc o Internecie mają na myśli sieć WWW, ale ważne jest, aby zrozumieć, że to nie to samo.

Historia sieci WWW

Tim Berners-Lee i, w mniejszym stopniu, Robert Cayo są uważani za wynalazców World Wide Web. Tim Berners-Lee jest autorem technologii HTTP, URI/URL i HTML. W 1980 pracował dla Europejskiej Rady Badań Jądrowych (fr. Conseil Européen pour la Recherche Nucléaire, CERN) jako konsultant ds. oprogramowania. To właśnie tam, w Genewie (Szwajcaria), napisał na własny użytek program Inquire, który wykorzystywał losowe skojarzenia do przechowywania danych i położył podwaliny koncepcyjne dla sieci WWW.

W 1989 roku, pracując w CERN-ie nad intranetem organizacji, Tim Berners-Lee zaproponował globalny projekt hipertekstowy, obecnie znany jako World Wide Web. Projekt obejmował publikację dokumentów hipertekstowych połączonych ze sobą hiperłączami, co ułatwiłoby naukowcom z CERN wyszukiwanie i konsolidację informacji. Aby wdrożyć projekt, Tim Berners-Lee (wraz ze swoimi asystentami) wymyślił identyfikatory URI, protokół HTTP i język HTML. Są to technologie, bez których nie sposób już sobie wyobrazić współczesnego Internetu. W latach 1991-1993 firma Berners-Lee udoskonaliła specyfikacje techniczne tych norm i opublikowała je. Niemniej jednak rok 1989 należy uznać za oficjalny rok narodzin sieci WWW.

W ramach projektu Berners-Lee napisał pierwszy na świecie serwer WWW httpd i pierwszą na świecie hipertekstową przeglądarkę internetową o nazwie WorldWideWeb. Przeglądarka ta była również edytorem WYSIWYG (skrót od What You See Is What You Get - co widzisz to co dostajesz), jej tworzenie rozpoczęto w październiku 1990 i zakończono w grudniu tego samego roku. Program działał w środowisku NeXTStep i zaczął rozprzestrzeniać się w Internecie latem 1991 roku.

Pierwsza na świecie witryna internetowa była hostowana przez Berners-Lee 6 sierpnia 1991 r. na pierwszym serwerze sieciowym, dostępnym pod adresem http://info.cern.ch/. Zasób zdefiniował pojęcie World Wide Web, zawierał instrukcje dotyczące instalacji serwera WWW, korzystania z przeglądarki itp. Ta strona była również pierwszym na świecie katalogiem internetowym, ponieważ Tim Berners-Lee później umieścił i utrzymywał listę linków do innych strony tam.

Od 1994 roku konsorcjum World Wide Web Consortium (W3C), założone i nadal kierowane przez Tima Bernersa-Lee, przejęło główne prace nad rozwojem sieci World Wide Web. Konsorcjum to jest organizacją, która opracowuje i wdraża standardy technologiczne dla Internetu i World Wide Web. Misja W3C: „Uwolnij pełen potencjał sieci WWW, tworząc protokoły i zasady, które gwarantują długoterminowy rozwój sieci”. Pozostałe dwa główne cele konsorcjum to zapewnienie pełnej „internacjonalizacji sieci” i udostępnienie sieci osobom niepełnosprawnym.

W3C opracowuje wspólne zasady i standardy dla Internetu (tzw. „rekomendacje”, ang. W3C Rekomendacje), które są następnie wdrażane przez producentów oprogramowania i sprzętu. W ten sposób osiągnięto zgodność między produkty oprogramowania i sprzęt różnych firm, co sprawia, że ​​sieć WWW jest doskonalsza, wszechstronniejsza i wygodniejsza. Wszystkie rekomendacje World Wide Web Consortium są otwarte, to znaczy nie są chronione patentami i mogą być realizowane przez każdego bez wkładu finansowego do konsorcjum.

Struktura i zasady World Wide Web

Sieć WWW składa się z milionów internetowych serwerów WWW zlokalizowanych na całym świecie. Serwer WWW to program, który działa na komputerze podłączonym do sieci i używa protokołu HTTP do przesyłania danych. W najprostszej postaci taki program odbiera żądanie HTTP dla określonego zasobu przez sieć, znajduje odpowiedni plik na lokalnym dysku twardym i wysyła go przez sieć do żądającego komputera. Bardziej zaawansowane serwery internetowe są w stanie dynamicznie generować dokumenty w odpowiedzi na żądanie HTTP przy użyciu szablonów i skryptów.

Do przeglądania informacji otrzymanych z serwera WWW na komputerze klienckim wykorzystywany jest specjalny program - przeglądarka internetowa. Główną funkcją przeglądarki internetowej jest wyświetlanie hipertekstu. Sieć WWW jest nierozerwalnie związana z pojęciami hipertekstu i hiperłączy. Wiele informacji w sieci to hiperteksty.

Aby ułatwić tworzenie, przechowywanie i wyświetlanie hipertekstu w sieci WWW, tradycyjnie używany jest język HTML (HyperText Markup Language, „Hypertext Markup Language”). Praca polegająca na tworzeniu (zaznaczaniu) dokumentów hipertekstowych nazywana jest layoutem, jest wykonywana przez webmastera lub osobnego specjalistę ds. znaczników - projektanta layoutu. Po oznaczeniu HTML wynikowy dokument jest zapisywany do pliku, a takie pliki HTML są głównym typem zasobów w sieci WWW. Gdy plik HTML zostanie udostępniony serwerowi internetowemu, jest on określany jako „strona internetowa”. Zestaw stron internetowych tworzy witrynę internetową.

Hipertekst stron internetowych zawiera hiperłącza. Hiperłącza pomagają użytkownikom sieci WWW łatwo nawigować między zasobami (plikami), niezależnie od tego, czy zasoby znajdują się na lokalny komputer lub na zdalnym serwerze. Uniform Resource Locator (URL) służy do lokalizowania zasobów w sieci WWW. Na przykład pełny adres URL strona główna Rosyjska sekcja Wikipedii wygląda tak: http://ru.wikipedia.org/wiki/Strona_główna. Takie lokalizatory adresów URL łączą technologię identyfikacji URI (Uniform Resource Identifier) ​​i system nazw domen (DNS). Nazwa domeny (w tym przypadku ru.wikipedia.org) jako część adresu URL odnosi się do komputera (a dokładniej jednego z jego interfejsów sieciowych), który wykonuje kod żądanego serwera WWW. Adres URL bieżącej strony można zwykle zobaczyć w pasek adresu przeglądarka, chociaż wiele nowoczesnych przeglądarek domyślnie woli wyświetlać tylko nazwę domeny bieżącej witryny.

Technologie WWW

Aby poprawić wizualną percepcję sieci, szeroko stosowana jest technologia CSS, która pozwala na ustawienie ujednolicone style projekt dla wielu stron internetowych. Kolejną innowacją, na którą warto zwrócić uwagę, jest system oznaczania zasobów URN (Uniform Resource Name).

Popularną koncepcją rozwoju sieci WWW jest tworzenie sieci semantycznej. Sieć semantyczna to dodatek do istniejącej sieci World Wide Web, którego celem jest uczynienie informacji publikowanych w sieci bardziej zrozumiałymi dla komputerów. Sieć semantyczna to koncepcja sieci, w której każdy zasób jest włączony ludzki język otrzyma opis zrozumiały dla komputera. Sieć semantyczna otwiera dostęp do przejrzystej struktury informacji dla dowolnej aplikacji, niezależnie od platformy i języka programowania. Programy będą mogły same znajdować potrzebne zasoby, przetwarzać informacje, klasyfikować dane, identyfikować logiczne zależności, wyciągać wnioski, a nawet podejmować decyzje na podstawie tych wniosków. Sieć semantyczna, jeśli zostanie dobrze przyjęta i dobrze zaimplementowana, może zrewolucjonizować Internet. Do tworzenia zrozumiałe dla komputera Opisy zasobów w sieci semantycznej używają formatu RDF (Resource Description Framework), który jest oparty na składni XML i używa identyfikatorów URI do oznaczania zasobów. Nowością w tym obszarze są RDFS (RDF Schema) i SPARQL (Protocol And RDF Query Language) (wymawiane „migotanie”), nowy język zapytania o szybki dostęp do danych RDF.

Podstawowe terminy używane w sieci WWW

Praca z przeglądarką

Dziś, dziesięć lat po wynalezieniu protokołu HTTP, który stał się podstawą World Wide Web, przeglądarka jest najbardziej zaawansowanym oprogramowaniem, które łączy w sobie łatwość obsługi i bogactwo funkcji.
Przeglądarka otwiera przed użytkownikiem nie tylko świat hipertekstowych zasobów sieci WWW. Może również współpracować z innymi usługami sieciowymi, takimi jak FTP, Gopher, WAIS. Wraz z przeglądarką zazwyczaj instalowany jest na komputerze program do korzystania z usług poczty elektronicznej (e-mail) i wiadomości (wiadomości). W rzeczywistości przeglądarka jest głównym programem dostępu do usług internetowych. Dzięki niemu możesz uzyskać dostęp do prawie każdej usługi internetowej, nawet jeśli przeglądarka nie obsługuje tej usługi. W tym celu wykorzystywane są specjalnie zaprogramowane serwery internetowe, które łączą sieć WWW z tą usługą sieciową. Przykładem tego rodzaju serwerów internetowych jest wiele darmowych serwery pocztowe z interfejsem internetowym (patrz http://www.mail.ru)
Obecnie istnieje wiele programów przeglądarkowych stworzonych przez różne firmy. Najczęściej używane i rozpoznawane przeglądarki to Netscape Navigator i Internet Explorer. To właśnie te przeglądarki stanowią główną konkurencję między sobą, choć warto zauważyć, że programy te są pod wieloma względami podobne. To zrozumiałe, bo działają według tych samych standardów – standardów Internetu.
Praca z przeglądarką zaczyna się od tego, że użytkownik wpisuje w pasku adresu (adresie) adres URL zasobu, do którego chce uzyskać dostęp, i naciska klawisz Enter.

Przeglądarka wysyła żądanie do określonego serwera WWW. W miarę napływania z serwera elementów strony internetowej określonej przez użytkownika, pojawia się ona stopniowo w oknie roboczym przeglądarki. Proces otrzymywania elementów strony z serwera wyświetlany jest w dolnej linii „statusu” przeglądarki.

Hiperłącza tekstowe zawarte na wynikowej stronie internetowej są zwykle wyróżnione innym kolorem niż reszta tekstu w dokumencie i podkreślone. Linki wskazujące na zasoby, których użytkownik jeszcze nie przeglądał, oraz linki do zasobów już odwiedzonych, zwykle mają inny kolor. Obrazy mogą również pełnić funkcję hiperłączy. Niezależnie od tego, czy link jest linkiem tekstowym czy graficznym, jeśli najedziesz na niego myszą, zmieni się jego kształt. Jednocześnie w pasku stanu przeglądarki pojawi się adres, do którego prowadzą linki.

Po kliknięciu hiperłącza przeglądarka otwiera zasób, na który wskazuje w oknie roboczym, podczas gdy poprzedni zasób jest z niego rozładowywany. Przeglądarka utrzymuje listę przeglądanych stron, a użytkownik w razie potrzeby może cofnąć się przez łańcuch przeglądanych stron. Aby to zrobić, kliknij przycisk „Wstecz” w menu przeglądarki - powróci do strony, którą przeglądałeś przed otwarciem bieżącego dokumentu.
Za każdym razem, gdy klikniesz ten przycisk, przeglądarka cofnie się o jeden dokument na liście odwiedzanych dokumentów. Jeśli nagle cofniesz się za daleko, użyj przycisku „Dalej” w menu przeglądarki. Pomoże Ci przejść dalej na liście dokumentów.
Przycisk „Stop” zatrzyma ładowanie dokumentu. Przycisk „Załaduj ponownie” umożliwia ponowne załadowanie bieżącego dokumentu z serwera.
Przeglądarka w swoim oknie może wyświetlić tylko jeden dokument: aby wyświetlić inny dokument, usuwa poprzedni. O wiele wygodniej jest pracować w kilku oknach przeglądarki jednocześnie. Otwarcie nowego okna odbywa się za pomocą menu: Plik - Nowy - Okno (lub kombinacji klawiszy Ctrl + N).

Praca z dokumentem

Przeglądarka umożliwia wykonanie zestawu standardowych operacji na dokumencie. Załadowaną do niego stronę internetową można wydrukować (w przeglądarce Internet Explorer odbywa się to za pomocą przycisku „Drukuj” lub z menu: Plik - Drukuj...), zapisać na dysku (menu: Plik - Zapisz jako...). Możesz znaleźć interesujący Cię fragment tekstu na załadowanej stronie. W tym celu skorzystaj z menu: Edytuj - Znajdź na tej stronie.... A jeśli interesuje Cię, jak ten dokument wygląda w oryginalnym hipertekście przetworzonym przez przeglądarkę, wybierz z menu: Widok - Jako HTML.
Gdy podczas przeglądania Internetu użytkownik znajdzie stronę, która go szczególnie interesuje, korzysta z możliwości ustawienia zakładek w przeglądarce (podobnie jak zakładki oznaczające interesujące miejsca książki).
Odbywa się to za pomocą menu: Ulubione - Dodaj do ulubionych. Nowa zakładka pojawi się następnie na liście zakładek, którą można wyświetlić, klikając przycisk Ulubione na pasku przeglądarki lub w menu Ulubione.
Istniejące zakładki można usuwać, modyfikować, organizować w foldery za pomocą menu: Ulubione — Organizuj ulubione.

Pracuj przez serwer proxy

Netscape Navigator i Microsoft Internet Explorer zapewniają również mechanizm osadzania dodatkowe funkcje niezależnych producentów. Moduły rozszerzające możliwości przeglądarki nazywane są wtyczkami (wtyczkami).
Przeglądarki działają na komputerach z różnymi systemami operacyjnymi. Daje to podstawy do mówienia o niezależności World Wide Web od typu komputera, z którego korzysta użytkownik i systemu operacyjnego.

Wyszukiwanie informacji w Internecie

Ostatnio World Wide Web jest postrzegany jako nowe potężne środki masowego przekazu, których odbiorcami jest najbardziej aktywna i wykształcona część populacji planety. Ta wizja odpowiada rzeczywistemu stanowi rzeczy. W dniach ważnych wydarzeń i niepokojów obciążenie węzłów wiadomości sieciowych drastycznie wzrasta; w odpowiedzi na zapotrzebowanie czytelników natychmiast pojawiają się zasoby poświęcone incydentowi, który właśnie się wydarzył. Na przykład podczas sierpniowego kryzysu 1998 r. informacje pojawiły się na stronie internetowej firmy telewizyjnej i radiowej CNN (http://www.cnn.com) znacznie wcześniej niż podały rosyjskie środki masowego przekazu. W tym samym czasie szeroko znany stał się serwer RIA RosBusinessConsulting (http://www.rbc.ru), który dostarcza najświeższe informacje z rynków finansowych oraz najnowsze wiadomości. Wielu Amerykanów oglądało głosowanie w sprawie impeachmentu przeciwko prezydentowi USA Billowi Clintonowi w Internecie, a nie na ekranach telewizorów. Rozwój wojny w Jugosławii znalazł również natychmiastowe odzwierciedlenie w różnorodnych publikacjach odzwierciedlających najróżniejsze punkty widzenia na ten konflikt.
Wiele osób, które znają Internet lepiej ze słyszenia, uważa, że ​​w sieci można znaleźć wszelkie informacje. Dzieje się tak w tym sensie, że można natknąć się na najbardziej nieoczekiwane zasoby w formie i treści. Rzeczywiście, nowoczesna sieć jest w stanie zaoferować swoim użytkownikom wiele informacji o różnych profilach. Tutaj możesz zapoznać się z aktualnościami, spędzić ciekawy czas, uzyskać dostęp do różnorodnych informacji referencyjnych, encyklopedycznych i edukacyjnych. Trzeba tylko podkreślić, że chociaż ogólna wartość informacyjna Internetu jest bardzo wysoka, to sama przestrzeń informacyjna jest jakościowo niejednorodna, ponieważ zasoby są często tworzone w pośpiechu. Jeżeli podczas przygotowywania publikacji papierowej jej tekst jest zwykle czytany przez kilku recenzentów i dokonywane są w nim poprawki, to w sieci zwykle nie ma tego etapu procesu wydawniczego. Ogólnie więc informacje zaczerpnięte z Internetu należy traktować z nieco większą ostrożnością niż informacje zawarte w publikacji drukowanej.
Jednak obfitość informacji ma: zła strona: wraz ze wzrostem ilości informacji coraz trudniej jest znaleźć informacje, które są potrzebne w ten moment. Dlatego głównym problemem, który pojawia się podczas pracy z Siecią, jest szybkie znalezienie potrzebnych informacji i ich zrozumienie, ocena wartości informacyjnej danego zasobu dla własnych celów.

Aby rozwiązać problem ze znalezieniem niezbędnych informacji w Internecie, istnieje osobny rodzaj usługi sieciowej. Mówimy o wyszukiwarkach lub wyszukiwarkach.
Serwery wyszukiwania są dość liczne i zróżnicowane. Zwyczajowo rozróżnia się indeksy wyszukiwania i katalogi.
Serwery indeksowe działają w następujący sposób: regularnie czytaj zawartość większości stron internetowych ("indeksuj" je) i umieszczaj je w całości lub w części we wspólnej bazie danych. Użytkownicy serwera wyszukiwania mają możliwość przeszukiwania tej bazy danych za pomocą słów kluczowych związanych z interesującym ich tematem. Na emisję wyników wyszukiwania składają się zazwyczaj fragmenty stron polecanych do zwrócenia uwagi użytkownika oraz ich adresy (URL), ułożone w formie hiperłączy. Wygodnie jest pracować z tego typu serwerami wyszukiwania, jeśli istnieje jasne pojęcie o temacie wyszukiwania.
Serwery katalogowe w rzeczywistości reprezentują one wielopoziomową klasyfikację linków, zbudowaną na zasadzie „od ogółu do szczegółu”. Czasami linkom towarzyszy krótki opis zasobu. Z reguły możliwe jest wyszukiwanie w tytułach nagłówków (kategorii) oraz opisach zasobów po słowach kluczowych. Katalogi są używane, gdy nie do końca wiedzą, czego szukają. Przechodząc od najbardziej ogólnych kategorii do bardziej szczegółowych, możesz określić, z jakim rodzajem zasobu internetowego powinieneś się zapoznać. Wskazane jest porównywanie katalogów wyszukiwania z tematycznymi katalogami bibliotecznymi lub klasyfikatorami. Utrzymanie katalogów wyszukiwania jest częściowo zautomatyzowane, ale do tej pory klasyfikacja zasobów odbywała się głównie ręcznie.
Katalogi wyszukiwania są powszechne miejsce docelowe oraz specjalistyczne. Katalogi wyszukiwania ogólnego przeznaczenia zawierają zasoby o bardzo różnym profilu. Wyspecjalizowane katalogi łączą tylko zasoby poświęcone konkretnemu tematowi. Często udaje im się osiągnąć lepsze pokrycie zasobów ze swojej dziedziny i zbudować bardziej adekwatne pozycje.
W ostatnim czasie intensywnie zintegrowano katalogi wyszukiwania ogólnego przeznaczenia i wyszukiwarki indeksujące, z powodzeniem łącząc ich zalety. Technologie wyszukiwania również nie stoją w miejscu. Tradycyjne serwery indeksujące przeszukują bazę danych w poszukiwaniu dokumentów zawierających słowa kluczowe w zapytaniu. Przy takim podejściu bardzo trudno jest ocenić wartość i jakość zasobu przekazanego użytkownikowi. Alternatywnym podejściem jest poszukiwanie takich stron internetowych, do których prowadzą linki z innych zasobów na ten temat. Im więcej łączy do strony istnieje w sieci, tym większe prawdopodobieństwo, że ją znajdziesz. Taki rodzaj metawyszukiwania jest realizowany przez poszukiwanie serwer google (http://www.google.com/), który pojawił się całkiem niedawno, ale już sprawdził się dobrze.

Praca z serwerami wyszukiwania

Praca z serwerami wyszukiwania nie jest trudna. W pasku adresu przeglądarki wpisz jej adres, w ciągu zapytania wpisz w żądanym języku słowa kluczowe lub frazy odpowiadające zasobom lub zasobom sieci Web, które chcesz znaleźć. Następnie kliknij przycisk „Szukaj” i okno robocze przeglądarka ładuje pierwszą stronę z wynikami wyszukiwania.

Zazwyczaj serwer wyszukiwania udostępnia wyniki wyszukiwania w małych porcjach, na przykład 10 na jedną stronę wyników wyszukiwania. Dlatego często zajmują więcej niż jedną stronę. Następnie pod listą polecanych linków pojawi się propozycja linku, który pozwoli przejść do następnej „części” wyników wyszukiwania (patrz rys.).

W idealnym przypadku zasób, którego szukasz, zostanie umieszczony przez wyszukiwarkę na pierwszej stronie wyników wyszukiwania, a żądany link natychmiast rozpoznasz po krótkim opisie. Jednak często konieczne jest przyjrzenie się kilku zasobom przed znalezieniem właściwego. Zazwyczaj użytkownik wyświetla je w nowych oknach przeglądarki bez zamykania okna przeglądarki zawierającego wyniki wyszukiwania. Czasami wyszukiwanie i przeglądanie znalezionych zasobów odbywa się w tym samym oknie przeglądarki.
Sukces wyszukiwania informacji zależy bezpośrednio od tego, jak kompetentnie wykonałeś zapytanie.
Rozważ prosty przykład. Załóżmy, że chcesz kupić komputer, ale nie wiesz, jakie modyfikacje istnieją dzisiaj i jakie są ich cechy. Aby uzyskać wymagane informacje, możesz skorzystać z Internetu, pytając wyszukiwarkę. Jeśli ustawimy słowo „komputer” w pasku wyszukiwania, wynikiem wyszukiwania będzie ponad 6 milionów (!) Linków. Oczywiście są wśród nich strony, które spełniają nasze wymagania, ale nie sposób znaleźć ich wśród tak dużej liczby.
Jeśli napiszesz „jakie modyfikacje komputerów istnieją dzisiaj”, serwer wyszukiwania zaoferuje wyświetlenie około dwustu stron, ale żadna z nich nie będzie ściśle odpowiadać żądaniu. Innymi słowy, zawierają pojedyncze słowa z zapytania, ale może w ogóle nie dotyczyć komputerów, ale powiedzmy o istniejących modyfikacjach pralki lub o liczbie komputerów dostępnych w magazynie firmy w danym dniu.
Ogólnie rzecz biorąc, nie zawsze można pomyślnie zadać pytanie serwerowi wyszukiwania za pierwszym razem. Jeśli zapytanie jest krótkie i zawiera tylko często używane słowa, można znaleźć wiele dokumentów, setki tysięcy i miliony. Wręcz przeciwnie, jeśli żądanie jest zbyt szczegółowe lub użyte w nim są bardzo rzadkie słowa, zobaczysz komunikat informujący, że w bazie danych serwera nie znaleziono zasobów pasujących do żądania.
Stopniowe zawężanie lub rozszerzanie zakresu wyszukiwania poprzez zwiększanie lub zmniejszanie listy słów kluczowych, zastępowanie nieudanych wyszukiwanych haseł lepszymi, pomoże Ci poprawić wyniki wyszukiwania.
Oprócz liczby słów ważną rolę w zapytaniu odgrywa ich treść. Słowa kluczowe składające się na zapytanie są zwykle po prostu oddzielone spacjami. Należy pamiętać, że różne wyszukiwarki różnie to interpretują. Niektórzy z nich wybierają do takiego żądania tylko dokumenty zawierające wszystkie słowa kluczowe, czyli postrzegają spację w żądaniu jako logiczne łącze „i”. Niektórzy interpretują spację jako logiczne „lub” i szukają dokumentów, które zawierają przynajmniej jedno ze słów kluczowych.
Podczas tworzenia zapytania wyszukiwania większość serwerów umożliwia jawne określenie łączy logicznych, które łączą słowa kluczowe i ustawiają inne parametry wyszukiwania. Spójniki logiczne są zwykle oznaczane za pomocą angielskich słów „AND”, „OR”, „NOT”. Na różnych serwerach wyszukiwania przy tworzeniu rozszerzonego zapytania wyszukiwania używana jest inna składnia - tzw. język zapytań. Używając języka zapytań, możesz określić, które słowa muszą znaleźć się w dokumencie, a które nie, a które są pożądane (czyli mogą, ale nie muszą).
Z reguły nowoczesne wyszukiwarki wykorzystują podczas wyszukiwania wszystkie możliwe formy wyrazów użytych słów. Oznacza to, że niezależnie od formy, w jakiej użyłeś słowa w zapytaniu, wyszukiwanie uwzględnia wszystkie jego formy zgodnie z zasadami języka rosyjskiego: na przykład, jeśli określono zapytanie „idź”, wyszukiwanie będzie znajdź linki do dokumentów zawierających słowa „iść”, „idzie”, „spacerował”, „spacerował” itp.
Zazwyczaj na stronie tytułowej serwera wyszukiwania znajduje się link „Pomoc” (ang. „Pomoc”), za pomocą którego użytkownik może zapoznać się z regułami wyszukiwania i językiem zapytań używanym na tym serwerze.
Kolejnym bardzo ważnym punktem jest wybór serwera wyszukiwania odpowiedniego do twoich zadań. Jeśli szukasz konkretnego pliku, lepiej użyć wyspecjalizowanego serwera wyszukiwania, który indeksuje nie strony internetowe, ale archiwa plików w Internecie. Przykładem takich serwerów wyszukiwania jest FTP Search (http://ftpsearch.lycos.com), a do wyszukiwania plików w rosyjskich archiwach lepiej jest użyć rosyjskiego odpowiednika - http://www.filesearch.ru.
Archiwa oprogramowania służą do wyszukiwania oprogramowania, na przykład http://www.tucows.com/ , http://www.windows95.com , http://www.freeware.ru .
Jeśli strona, której szukasz, znajduje się w rosyjskiej części sieci, warto skorzystać z rosyjskich serwerów wyszukiwania. Działają lepiej z rosyjskojęzycznymi Zapytania, są wyposażone w interfejs w języku rosyjskim.
W tabeli 1 wymieniono niektóre z bardziej znanych wyszukiwarek ogólnego przeznaczenia. Wszystkie te serwery oferują obecnie zarówno wyszukiwanie pełnotekstowe, jak i wyszukiwanie kategorii, łącząc w ten sposób zalety serwera indeksu i serwera katalogu.

Http, który pozwoli na utrzymanie długiego połączenia, przesyłanie danych w kilku strumieniach, dystrybucję kanałów transmisji danych oraz zarządzanie nimi. Jeśli zostanie zaimplementowany i obsługiwany przez standardowe oprogramowanie WWW, usunie powyższe wady. Innym sposobem jest użycie nawigatorów, które mogą lokalnie wykonywać programy w interpretowanych językach, takich jak projekt Java firmy Sun Microsystems. Innym rozwiązaniem tego problemu jest wykorzystanie technologii AJAX, opartej na XML i JavaScript. Pozwala to na otrzymanie dodatkowych danych z serwera, gdy strona WWW została już załadowana z serwera.

Obecnie istnieją dwa trendy w rozwoju World Wide Web: Semantic Web i

Istnieje również popularna koncepcja Web 2.0, która uogólnia kilka kierunków rozwoju sieci WWW jednocześnie.

Web 2.0

W ostatnim czasie rozwój sieci WWW został znacząco przeprowadzony poprzez aktywne wprowadzanie nowych zasad i technologii, które otrzymały ogólną nazwę Web 2.0 (Web 2.0). Sam termin Web 2.0 pojawił się po raz pierwszy w 2004 roku i ma zobrazować jakościowe zmiany w sieci WWW w drugiej dekadzie jej istnienia. Web 2.0 to logiczny rozwój sieci. Główna cecha jest usprawnienie i przyspieszenie interakcji serwisów internetowych z użytkownikami, co doprowadziło do gwałtownego wzrostu aktywności użytkowników. Przejawiało się to w:

  • udział w społecznościach internetowych (w szczególności na forach);
  • zamieszczanie komentarzy na stronach internetowych;
  • prowadzenie osobistych dzienników (blogów);
  • umieszczanie linków w sieci WWW.

Web 2.0 wprowadził aktywną wymianę danych, w szczególności:

  • eksport wiadomości między serwisami;
  • aktywna agregacja informacji z witryn.
  • używanie API do oddzielania danych witryny od samej witryny

Z punktu widzenia implementacji witryny Web 2.0 podnosi wymagania dotyczące prostoty i wygody witryn dla zwykłych użytkowników i ma na celu szybki spadek umiejętności użytkowników w najbliższej przyszłości. Na pierwszy plan wysuwa się zgodność z listą norm i aprobat (W3C). Dotyczy to w szczególności:

  • standardy projektowania wizualnego i funkcjonalności witryn;
  • typowe wymagania (SEO) Wyszukiwarki;
  • Standardy XML i otwarta wymiana informacji.

Z drugiej strony, Web 2.0 spadło:

  • wymagania dotyczące „jasności” i „kreatywności” projektu i treści;
  • potrzeby dla złożonych stron internetowych %82-%D0%BF%D0%BE%D1%80%D1%82%D0%B0%D0%BB ]);
  • wartość reklamy offline;
  • zainteresowanie biznesowe dużymi projektami.

W ten sposób Web 2.0 oznaczał przejście WWW od pojedynczych, drogich, złożonych rozwiązań do silnie typizowanych, tanich, łatwych w użyciu witryn z możliwością efektywnej wymiany informacji. Głównymi przyczynami tego przejścia były:

  • krytyczny brak wysokiej jakości treści;
  • potrzeba aktywnego wyrażania siebie użytkownika w sieci WWW;
  • rozwój technologii wyszukiwania i agregowania informacji w sieci WWW.

Przejście do zestawu technologii Web 2.0 ma takie konsekwencje dla globalnej przestrzeni informacyjnej WWW, jak:

  • o sukcesie projektu decyduje poziom aktywnej komunikacji użytkowników projektu oraz poziom jakości treści informacyjnych;
  • witryny mogą osiągnąć wysoką wydajność i rentowność bez dużych inwestycji dzięki skutecznemu pozycjonowaniu w sieci WWW;
  • indywidualni użytkownicy WWW mogą osiągnąć znaczące sukcesy w realizacji swoich planów biznesowych i kreatywnych w WWW bez posiadania własnych witryn;
  • koncepcja osobistej witryny jest gorsza od pojęcia „blog”, „sekcja autora”;
  • Pojawiają się zasadniczo nowe role aktywnych użytkowników WWW (moderator forum, autorytatywny forumowicz, bloger).

Przykłady Web 2.0
Oto kilka przykładów witryn ilustrujących technologie Web 2.0, które faktycznie zmieniły środowisko WWW. Dotyczy to w szczególności:

Oprócz tych projektów istnieją inne projekty, które tworzą nowoczesne środowisko globalne i opierają się na aktywności ich użytkowników. Serwisy, których treść i popularność kształtują przede wszystkim nie wysiłki i zasoby ich właścicieli, ale społeczność użytkowników zainteresowanych rozwojem serwisu, stanowią nową klasę usług, które określają zasady globalne środowisko WWW.

Sieć WWW (www)

Wraz z rozwojem Internetu w jego obieg wchodziło coraz więcej informacji, a poruszanie się po Internecie stawało się coraz trudniejsze. Wtedy pojawiło się zadanie stworzenia prostego i zrozumiałego sposobu porządkowania informacji zamieszczanych na stronach internetowych. Nowa usługa www (World Wide Web - World Wide Web) w pełni poradziła sobie z tym zadaniem.

WWW (świat WWW) to system dokumentów z informacjami tekstowymi i graficznymi umieszczonymi w węzłach Internetu i połączonymi hiperłączami. Być może ta usługa jest najpopularniejsza i dla wielu użytkowników jest synonimem samego słowa INTERNET. Często początkujący użytkownicy mylą dwa pojęcia - Internet i WWW (lub WWW). Należy przypomnieć, że WWW to tylko jedna z wielu usług (usług) świadczonych użytkownikom Internetu.

Główna idea, która została wykorzystana przy tworzeniu systemu www, to idea dostępu do informacji poprzez linki hipertekstowe. Jego istota polega na umieszczeniu w tekście dokumentu linków do innych dokumentów, które mogą znajdować się zarówno na tych samych, jak i zdalnych serwerach informacyjnych.

Historia www zaczyna się od momentu, gdy w 1989 r. pracownik znanej organizacji naukowej CErN, Berners-Lee, zasugerował, aby jego kierownictwo stworzyło bazę danych w postaci sieci informacyjnej, która składałaby się z dokumentów obejmujących zarówno samą informację i linki do innych dokumentów. Takie dokumenty to nic innego jak hipertekst.

Inną cechą odróżniającą www od innych rodzajów usług jest to, że za pośrednictwem tego systemu można uzyskać dostęp do prawie wszystkich innych rodzajów usług internetowych, takich jak FTP, Gopher, Telnet.

WWW to system multimedialny. Oznacza to, że za pomocą www można np. obejrzeć film o zabytkach lub dowiedzieć się informacji o mistrzostwach świata. Możliwe jest uzyskanie dostępu do informacji bibliotecznych i świeżych zdjęć kuli ziemskiej wykonanych pięć minut temu przez satelity meteorologiczne, wraz z.

Pomysł uporządkowania informacji w postaci hipertekstu nie jest nowy. Hipertekst „żył” na długo przed pojawieniem się komputerów. Najprostszym przykładem hipertekstu niekomputerowego są encyklopedie. Niektóre słowa w artykułach zaznaczono kursywą. Oznacza to, że możesz zapoznać się z odpowiednim artykułem i uzyskać więcej dokładna informacja. Ale jeśli w hipertekście innym niż komputer musisz przewracać strony, to na ekranie monitora podążanie za linkiem hipertekstowym jest natychmiastowe. Wystarczy kliknąć słowo linku.

Główną zasługą Tima Berners-Lee, o której już wspominałem, jest to, że nie tylko wysunął ideę stworzenia System informacyjny w oparciu o hipertekst, ale także zaproponował szereg metod, które stały się podstawą przyszłego www.

W 1991 roku idee, które powstały w CErN, zaczęły być aktywnie rozwijane przez Centrum Zastosowań Superkomputerowych (NCSA). To NCSA tworzy język hipertekstu dokumenty html, a także program Mosaic przeznaczony do ich przeglądania. Program mozaikowy, opracowany przez Marka Andersena, stał się pierwszą przeglądarką i otworzył nową klasę oprogramowania.

W 1994 roku liczba serwerów www zaczyna szybko rosnąć, a nowa usługa internetowa nie tylko zyskuje uznanie na całym świecie, ale także przyciąga do Internetu ogromną liczbę nowych użytkowników.

Podajemy teraz główne definicje.

www- jest to zestaw stron internetowych hostowanych w węzłach Internetu i połączonych hiperłączami (lub po prostu linkami).

Strona internetowa to strukturalna jednostka www, która zawiera aktualne informacje (tekstowe i graficzne) oraz linki do innych stron.

stronie internetowej to strony internetowe, które fizycznie znajdują się w tej samej witrynie internetowej.

System hiperłączy www opiera się na tym, że niektóre wybrane sekcje jednego dokumentu (które mogą być fragmentami tekstu lub ilustracji) działają jako linki do innych dokumentów logicznie z nimi powiązanych.

Jednocześnie dokumenty, do których prowadzą linki, mogą znajdować się zarówno na stronie lokalnej, jak i na komputer zdalny. Ponadto możliwe są również tradycyjne łącza hipertekstowe — są to łącza w obrębie tego samego dokumentu.

Powiązane dokumenty mogą z kolei zawierać odsyłacze do siebie oraz do innych zasobów informacyjnych. Dzięki temu możliwe jest zbieranie dokumentów o podobnej tematyce w jednej przestrzeni informacyjnej. (Na przykład dokumenty zawierające informacje medyczne.)

architektura www

Architektura www, podobnie jak wiele innych rodzajów serwisów internetowych, zbudowana jest na zasadzie klient-serwer.

Główne zadanie programu serwera to organizacja dostępu do informacji przechowywanych na komputerze, na którym działa ten program. Po uruchomieniu program serwera pracuje w trybie oczekiwania na żądania od programów klienckich. Zazwyczaj przeglądarki internetowe działają jak programy klienckie, z których korzystają zwykli użytkownicy www. Gdy taki program potrzebuje uzyskać jakieś informacje z serwera (zazwyczaj są to przechowywane tam dokumenty), wysyła odpowiednie żądanie do serwera. Przy wystarczających prawach dostępu nawiązywane jest połączenie między programami, a program serwera wysyła odpowiedź na żądanie do programu klienta. Następnie połączenie ustanowione między nimi zostaje zerwane.

Protokół HTTP (Hypertext Transfer Protocol) służy do przesyłania informacji między programami.

Funkcje serwera www

serwer www to program, który działa na komputerze-hoście i obsługuje żądania od klientów www. Po otrzymaniu żądania od klienta www, program ten nawiązuje połączenie w oparciu o protokół transportowy TCP/IP i wymienia informacje za pomocą protokołu HTTP. Dodatkowo serwer określa prawa dostępu do znajdujących się na nim dokumentów.

Aby uzyskać dostęp do informacji, których serwer nie może bezpośrednio przetworzyć, użyj system zamków. Wykorzystując specjalny interfejs CGI (Common Gateway Interface) do wymiany informacji z bramkami, serwer www jest w stanie pozyskiwać informacje ze źródeł niedostępnych dla innych rodzajów usług internetowych. Jednocześnie dla użytkownika końcowego działanie bramek jest „przejrzyste”, tzn. podczas przeglądania zasobów internetowych w swojej ulubionej przeglądarce niedoświadczony użytkownik nawet nie zauważy, że niektóre informacje zostały mu przedstawione za pomocą systemu bramkowego



Funkcje klienta www

Istnieją dwa główne typy klientów www: przeglądarki internetowe i aplikacje usługowe.

przeglądarki internetowe służą do bezpośredniej pracy z www i uzyskiwania stamtąd informacji.

Serwisowe aplikacje internetowe może komunikować się z serwerem w celu uzyskania pewnych danych statystycznych lub zindeksowania zawartych na nim informacji. (Dokładnie w ten sposób informacje trafiają do baz wyszukiwarek.) Ponadto istnieją również usługi klientów WWW, których praca związana jest z techniczną stroną przechowywania informacji na tym serwerze.

Internet zajmuje coraz większe miejsce w naszym życiu. Żadna inna technologia stworzona przez człowieka nie zyskała tak szerokiej popularności. Internet to sieć World Wide Web, która obejmuje cały glob, otaczając go siecią wież telewizyjnych. Swoją popularność zaczął zdobywać już w stosunkowo odległych latach 90. XX wieku. W artykule omówimy, skąd się wzięła i dlaczego stała się tak popularna.

Internet jako sieć WWW

Nie bez powodu podano drugie imię takiego planu. Faktem jest, że Internet jednoczy wielu użytkowników na całym świecie. Jak pajęcza sieć oplata swoimi nitkami cały glob. I to nie jest zwykła metafora, naprawdę jest. Internet to kable i sieci bezprzewodowe, z których te ostatnie nie są dla nas widoczne.

Ale to liryczna dygresja, w rzeczywistości Internet jest połączony z siecią WWW (www, czyli Word Wide Web). Obejmuje wszystkie komputery podłączone do sieci. Na zdalnych serwerach użytkownicy przechowują niezbędne informacje, a także mogą komunikować się w Internecie. Często ta nazwa jest rozumiana jako Światowa lub Globalna Sieć.

Opiera się na kilku bardzo ważnych protokołach, takich jak TCP/IP. Dzięki Internetowi, World Wide Web, inaczej Word Wide Web (WWW), realizuje swoją działalność, czyli przekazuje i odbiera dane.

Liczba użytkowników

Pod koniec 2015 roku przeprowadzono badanie, na podstawie którego uzyskano następujące dane. Liczba użytkowników Internetu na całym świecie to 3,3 miliarda ludzi. A to prawie 50% całej populacji naszej planety.

Tak wysokie stawki osiągnięto dzięki rozpowszechnieniu sieci komórkowych 3G i szybkiego 4G. Dostawcy odegrali ważną rolę, dzięki masowemu wprowadzeniu technologii internetowych spadły koszty utrzymania serwerów i produkcji kabli światłowodowych. W większości krajów europejskich prędkość internetu jest wyższa niż w krajach afrykańskich. Tłumaczy się to opóźnieniem technicznym tego ostatniego i niskim zapotrzebowaniem na usługę.

Dlaczego Internet nazywa się World Wide Web?

Nie jest to paradoksalne, ale wielu użytkowników jest przekonanych, że powyższy termin i Internet to jedno i to samo. To głębokie nieporozumienie, które krąży w umysłach wielu użytkowników, spowodowane jest podobieństwem pojęć. Teraz dowiemy się, co jest.

Sieć World Wide Web jest często mylona z podobnym wyrażeniem „World Wide Web”. Jest to pewna ilość informacji oparta na technologii Internetu.

Historia sieci WWW

Pod koniec lat 90. na świecie ugruntowała się dominacja NSFNet nad technologią ARPANET. Co dziwne, ale w ich rozwój zaangażowany był jeden ośrodek badawczy. ARPNET został opracowany na zlecenie Departamentu Wojny Stanów Zjednoczonych. Tak, tak, jako pierwsi z internetu skorzystało wojsko. A technologia NSFNet została opracowana niezależnie od agencji rządowych, niemal z czystego entuzjazmu.

To właśnie rywalizacja między tymi dwoma rozwiązaniami stała się podstawą ich dalszego rozwoju i masowego wprowadzania na świat. Sieć WWW stała się dostępna dla ogółu społeczeństwa w 1991 roku. Musiało to jakoś działać, a Berners Lee przejął rozwój systemu dla Internetu. W ciągu dwóch lat udanej pracy stworzył hipertekst, czyli HTTP, słynny elektroniczny język HTML i URL. Nie musimy wchodzić w szczegóły, ponieważ teraz postrzegamy je jako zwykłe linki do adresów stron.

Przestrzeń informacyjna

Przede wszystkim jest to przestrzeń informacyjna, do której dostęp odbywa się przez Internet. Umożliwia użytkownikowi dostęp do danych znajdujących się na serwerach. Jeśli użyjemy wizualno-figuratywnego sposobu, to Internet jest trójwymiarowym cylindrem, a World Wide Web jest tym, co go wypełnia.

Za pomocą programu o nazwie „przeglądarka” użytkownik uzyskuje dostęp do Internetu w celu surfowania po sieci. Składa się z niezliczonej liczby witryn opartych na serwerach. Są podłączone do komputerów i odpowiadają za zapisywanie, ładowanie, przeglądanie danych.

Pajęczyny i współczesny człowiek

Obecnie Homo sapiens w krajach rozwiniętych są prawie całkowicie zintegrowane z World Wide Web. Nie mówimy o naszych dziadkach ani o odległych wioskach, gdzie nawet nie wiedzą o jakimś Internecie.

Wcześniej osoba poszukująca informacji szła prosto do biblioteki. I często zdarzało się, że nie odnaleziono potrzebnej mu książki, potem musiał udać się do innych instytucji z archiwami. Teraz zniknęła potrzeba takich manipulacji.

W biologii wszystkie nazwy gatunków składają się z trzech słów, tak jak nasza pełna nazwa Homo sapiens neanderthalensis. Teraz możesz spokojnie dodać czwarte słowo internetiys.

Internet przejmuje umysły ludzkości

Zgadzam się, prawie wszystkie informacje czerpiemy z Internetu. W naszych rękach mamy mnóstwo informacji. Opowiedz o tym naszemu przodkowi, chciwie zagrzebałby się w ekranie monitora i siedziałby tam cały wolny czas w poszukiwaniu informacji.

To Internet przeniósł ludzkość na zupełnie nowy poziom, przyczynia się do powstania nowej kultury - mieszanej lub multi. Przedstawiciele różnych narodów naśladują i dostosowują się, jakby łącząc swoje zwyczaje w jeden kocioł. Skąd pochodzi produkt końcowy?

Jest to szczególnie przydatne dla naukowców, nie ma już potrzeby zbierać się na konsultacje w kraju oddalonym o 1000 km od naszego. Możesz wymieniać się doświadczeniami bez osobistego spotkania, na przykład za pośrednictwem komunikatorów lub Media społecznościowe. A jeśli trzeba omówić ważną kwestię, możesz to zrobić przez Skype.

Wniosek

Sieć WWW jest składnikiem Internetu. Jego pracę zapewniają serwery pamięci masowej, które na żądanie udostępniają informacje użytkownikowi. Sama sieć powstała dzięki amerykańskim naukowcom i ich entuzjazmowi.

Dziś networking stał się powszechny. Wchodzenie do internetu jest czasem łatwiejsze niż wstawanie z kanapy, by włączyć telewizor, bo pilot znowu gdzieś zniknął :). Dlaczego, wielu już nawet nie ogląda telewizji, ponieważ sieć ma wszystko, czego potrzebujesz, no, z wyjątkiem tego, że nie karmią ... jeszcze.

Ale kto wymyślił to, czego używamy codziennie, co godzinę? Wiesz, że? Do tej pory nie miałem pojęcia. I wynalazł Internet Sir Timothy John Berners-Lee. On jest tym jedynym twórca World Wide Web i autor wielu innych ważnych wydarzeń w tej dziedzinie.

Timothy John Berners-Lee urodził się 8 czerwca 1955 roku w Londynie w niezwykłej rodzinie. Jego rodzicami byli matematycy Conway Berners-Lee i Mary Lee Woods, którzy badali jeden z pierwszych komputerów, Manchester Mark I.

Trzeba powiedzieć, że sam czas sprzyjał różnego rodzaju przełomom technologicznym w dziedzinie technologii informatycznych: kilka lat wcześniej Vannevar Bush (naukowiec z USA) zaproponował tzw. hipertekst. To wyjątkowe zjawisko, które było alternatywą dla zwykłej linearnej struktury rozwoju, narracji itp. i miał zauważalny wpływ na wiele dziedzin życia - od nauki po sztukę.

Zaledwie kilka lat po narodzinach Tima Bernersa-Lee, Ted Nelson zaproponował stworzenie „wszechświata dokumentalnego”, w którym wszystkie teksty, jakie kiedykolwiek napisano przez ludzkość, zostałyby połączone ze sobą za pomocą tego, co dzisiaj nazwalibyśmy „odniesieniami”. W oczekiwaniu na wynalezienie Internetu wszystkie te i wiele innych wydarzeń stworzyło oczywiście podatny grunt i sugerowało odpowiednie refleksje.

W wieku 12 lat rodzice wysłali chłopca do prywatnej szkoły Emanuel w mieście Wandsworth, gdzie wykazywał zainteresowanie naukami ścisłymi. Po ukończeniu szkoły wstąpił do Oxford College, gdzie wraz z towarzyszami został skazany za atak hakerski i za to zostali pozbawieni prawa dostępu komputery edukacyjne. Ta niefortunna okoliczność skłoniła Tima po raz pierwszy do samodzielnego złożenia komputera opartego na procesorze M6800, ze zwykłym telewizorem zamiast monitora i zepsutym kalkulatorem zamiast klawiatury.

Berners-Lee ukończył studia w Oxfordzie w 1976 roku, uzyskując dyplom z fizyki, po czym rozpoczął karierę w Plessey Telecommunications Ltd. Zakres jego działalności w tym czasie obejmował transakcje rozproszone. Po kilku latach przeniósł się do innej firmy – DG Nash Ltd, gdzie rozwijał oprogramowanie do drukarek. To tutaj po raz pierwszy stworzył rodzaj analogu przyszłego systemu operacyjnego zdolnego do wielozadaniowości.

Kolejnym miejscem pracy było Europejskie Laboratorium Badań Jądrowych z siedzibą w Genewie (Szwajcaria). Tutaj, jako konsultant ds. oprogramowania, Berners-Lee napisał program Inquire, który wykorzystywał metodę losowych skojarzeń. Zasada jego działania pod wieloma względami była pomocą w tworzeniu sieci WWW.

Potem były trzy lata pracy jako architekt systemów i Praca naukowa w CERN, gdzie opracował serię systemy rozproszone do zbierania danych. Tutaj, w 1989 roku, po raz pierwszy przedstawił projekt oparty na hipertekście - twórca współczesnego Internetu. Projekt ten został później nazwany World Wide Web. ogólnoświatowa sieć).

Krótko mówiąc, jego istota była następująca: publikacja dokumentów hipertekstowych, które miałyby być połączone hiperłączami. Umożliwiło to znaczne ułatwienie wyszukiwania informacji, ich systematyzacji i przechowywania. Początkowo projekt miał być realizowany w wewnętrznej sieci CERN na potrzeby badań lokalnych, jako nowoczesna alternatywa dla biblioteki i innych repozytoriów danych. Jednocześnie pobieranie danych i dostęp do nich możliwy był z dowolnego komputera podłączonego do WWW.

Prace nad projektem trwały od 1991 do 1993 roku w formie zbierania opinii użytkowników, koordynowania i wszelkiego rodzaju usprawnień w sieci WWW. W szczególności już wtedy proponowano pierwsze wersje protokołów URL (jako szczególny przypadek URI), HTTP i HTML. Wprowadzono również pierwszą przeglądarkę internetową opartą na hipertekście World Wide Web oraz edytor WYSIWYG.

W 1991 roku została uruchomiona pierwsza strona internetowa pod adresem . Jego zawartość zawierała informacje wprowadzające i uzupełniające dotyczące sieci WWW: jak zainstalować serwer WWW, jak połączyć się z Internetem, jak korzystać z przeglądarki internetowej. Był też katalog online z linkami do innych stron.

Od 1994 roku Berners-Lee jest kierownikiem Laboratorium Informatycznego MIT (obecnie Informatyka i sztuczna inteligencja, z Massachusetts Institute) Katedra Założycieli 3Com, gdzie pracuje jako główny badacz.

W 1994 roku założył Laboratorium, które do dziś opracowuje i wdraża standardy dla Internetu. W szczególności Konsorcjum pracuje nad tym, aby sieć World Wide Web rozwijała się w sposób stabilny i ciągły – zgodnie z najnowszymi wymaganiami użytkowników oraz poziomem postępu technologicznego.

W 1999 roku słynna książka Berners-Lee zatytułowana „”. Opisuje szczegółowo proces pracy nad kluczowym w życiu autora projektem, omawia perspektywy rozwoju Internetu i technologii internetowych oraz nakreśla szereg ważnych zasad. Pomiędzy nimi:

- znaczenie web 2.0, bezpośredni udział użytkowników w tworzeniu i edycji treści stron internetowych (Wikipedia i sieci społecznościowe są doskonałym przykładem);
- ścisłe powiązanie wszystkich zasobów ze sobą poprzez odniesienia w połączeniu z równymi pozycjami każdego z nich;
— moralna odpowiedzialność naukowców wdrażających określone technologie informatyczne.

Berners-Lee jest profesorem na Uniwersytecie w Southampton od 2004 roku, gdzie pracuje nad projektem sieci semantycznej. Jest to nowa wersja sieci WWW, w której wszystkie dane nadają się do przetwarzania za pomocą programy specjalne. Jest to rodzaj „dodatku”, zakładającego, że każdy zasób będzie zawierał nie tylko zwykły tekst „dla ludzi”, ale także specjalnie zakodowaną treść zrozumiałą dla komputera.

W 2005 roku ukazała się jego druga książka, Traversing the Semantic Web: Unlocking the Full Potential of the World Wide Web.

Tim Berners-Lee jest obecnie Knight Commander przez królową Elżbietę II, zasłużonym członkiem Brytyjskiego Towarzystwa Komputerowego, zagranicznym członkiem Narodowej Akademii Nauk USA i wieloma innymi. Jego twórczość otrzymała wiele nagród, m.in. Order Zasługi, miejsce na liście „100 największych umysłów stulecia” według Time Magazine (1999), nagrodę Quadriga Award w nominacji „Knowledge Network” (2005), Nagroda MS Gorbaczowa w nominacji „Pierestrojka” – „Człowiek, który zmienił świat” (2011) itp.

W przeciwieństwie do wielu swoich odnoszących sukcesy braci, takich jak lub, Berners-Lee nigdy nie wyróżniał się szczególną chęcią zarabiania i uzyskiwania super zysków ze swoich projektów i wynalazków. Jego sposób komunikacji charakteryzuje się jako „szybki strumień myśli”, któremu towarzyszą rzadkie dygresje i autoironia. Jednym słowem, wszystko wskazuje na to, że geniusz żyje we własnym, „wirtualnym” świecie, który jednocześnie wywarł kolosalny wpływ na dzisiejszy świat.