Konferencja AINL: Sztuczna inteligencja, język naturalny. Czym jest sztuczna inteligencja? Ostatni post przez intellect board hi tech

2016 był rokiem sztucznej inteligencji. Postępy w systemach samozarządzania, rozpoznawanie głosu i głębokie uczenie umożliwiły komputerom dokonanie pewnych przełomów, które wcześniej były niemożliwe. Oto sześć najważniejszych.

1 AlphaGo pokonał mistrza świata w go

Go jest uważana za najbardziej złożoną profesjonalną grę wymyśloną przez ludzkość. Oferuje niesamowitą liczbę możliwych akcji i pod wieloma względami, zdaniem samych graczy, opiera się na ludzkiej intuicji. Sztuczna inteligencja AlphaGo nauczyła się gry, rozgrywając miliony gier swoimi kopiami, a w marcu tego roku mistrzem Lee Sedola był w czterech meczach na pięć.

2. Samojezdny samochód Tesla przywiózł do szpitala mężczyznę z zawałem serca

Drony są przedmiotem gorącej debaty na całym świecie. Prezes Tesli Elon Musk podkreśla jednak, że samochody z systemem autopilota są bezpieczniejsze niż samochody bez niego, niezależnie od punktu widzenia opinii publicznej. Raport amerykańskiej Narodowej Rady Bezpieczeństwa wskazuje, że w 2015 roku na każde 100 milionów mil przejechanych przez konwencjonalne pojazdy przypadało 1,3 ofiar śmiertelnych na drogach, podczas gdy dane Tesli to 130 milionów mil i tylko jeden zarejestrowany wypadek. Jednocześnie konto autopilota firmy ma co najmniej jedno uratowane życie - samochód dostarczył do szpitala jego właściciela Joshuę Nelly'ego, gdy na drodze miał nagły zawał serca.

3 Przewidywana inteligencja roju w Kentucky Derby

W maju sztuczna inteligencja UNU była w stanie z powodzeniem wytypować czterech zwycięzców prestiżowych zawodów jeździeckich, a ponadto ściśle według kolejności ich finiszu. Nie było to możliwe dla żadnego oficjalnego eksperta w tych rozgrywkach – dlatego komputer wygrał zakładem 540 do 1. UNU został opracowany przez Unanimous A.I. kierowany przez specjalistę od interakcji człowiek-maszyna, Louisa Rosenberga.

4. Microsoft AI rozumie teraz ludzką mowę lepiej niż sami ludzie

W październiku tego roku Microsoft zademonstrował, że sztuczna inteligencja po raz pierwszy dorównała ludzkiej wydajności w automatycznym rozpoznawaniu mowy. Aby osiągnąć ten wynik, system firmy wykorzystał tzw. ultraprecyzyjne i rekurencyjne sieci neuronowe. Potrzebowała 2000 godzin zarejestrowanych danych, aby przygotować się do testu.

5. AI przewidziała wyniki wyborów prezydenckich w USA

Wyniki amerykańskich wyborów zaskoczyły wielu, w tym osoby z wewnątrz systemu politycznego. Jednak indyjski startup MogIA z siedzibą w Bombaju z pewnością przewidział zwycięstwo Trumpa. Sztuczna inteligencja firmy przeanalizowała 20 milionów postów w mediach społecznościowych i była w stanie określić rzeczywiste upodobania wyborców. I choć wielu ekspertów nieufnie przywiązuje zbyt dużą wagę do zwycięstwa MogIA, obiektywnie – ta inteligencja była w stanie dokładnie przewidzieć wydarzenie, które zaskoczyło miliardy ludzi.

6. Sztuczna inteligencja zrewolucjonizowała diagnostykę raka

Opieka zdrowotna jest jednym z obszarów, w których postęp sztucznej inteligencji ma najbardziej praktyczne implikacje. W szczególności superkomputer IBM Watson już dziś jest w stanie dostrzec odchylenia w zdrowiu człowieka, które umykają uwadze doświadczonych diagnostów. Statystycznie w około 30% przypadków Watson daje pacjentom dodatkową diagnozę przeoczoną przez lekarzy.

Jeszcze bardziej imponujące wyniki osiągnęło AI z Houston Methodist Research Institute w Teksasie. Sztuczna inteligencja bada miliony mammogramów (jej szybkość analizy jest 30 razy szybsza niż człowieka) i daje wniosek onkologiczny z dokładnością do 99%.

Zadawanie pytania: Czym jest sztuczna inteligencja? Odpowiedź będzie zależeć od tego, kiedy zadałeś pytanie.

Już w latach pięćdziesiątych Minsky i McCarthy opisali sztuczną inteligencję jako każde zadanie wykonywane przez program lub maszynę, które można wykonać tak, jakby człowiek wykonywał to samo zadanie w formie aktywności intelektualnej.

Oczywiście dość szeroka definicja sztucznej inteligencji.

Systemy sztucznej inteligencji zazwyczaj wykazują niektóre z następujących zachowań związanych z ludzką inteligencją: planowanie, uczenie się, rozumowanie, rozwiązywanie problemów, reprezentowanie wiedzy, percepcja, ruch i manipulacja oraz, w mniejszym stopniu, inteligencja społeczna i kreatywność.

Jaka jest korzyść ze sztucznej inteligencji?

Sztuczna inteligencja jest obecnie używana wszędzie. Na przykład wirtualny asystenci głosowi, takich jak Siri firmy Apple, aby dowiedzieć się, kto i co znajduje się na zdjęciu, wykrywać spam lub wykrywać oszustwa związane z kartami kredytowymi.

Rodzaje sztucznej inteligencji

Na bardzo wysokim poziomie sztuczną inteligencję można podzielić na dwa szerokie typy: wąską sztuczną inteligencję i ogólną sztuczną inteligencję.

Wąska sztuczna inteligencja to to, co widzimy wokół nas w dzisiejszych komputerach: inteligentne systemy którzy zostali nauczeni lub nauczeni wykonywania określonych zadań bez wyraźnego zaprogramowania, jak to zrobić.

Ten typ inteligencja maszynowa widoczne w rozpoznawaniu mowy i języka wirtualnego asystenta Siri on Apple iPhone, w systemach rozpoznawania wizji w pojazdach bezzałogowych. W przeciwieństwie do ludzi, systemy te mogą tylko uczyć się lub uczyć się wykonywania określonych zadań, dlatego nazywane są wąską sztuczną inteligencją.

Pojawiła się ogromna liczba nowych zastosowań dla wąskiej sztucznej inteligencji: tłumaczenie filmów z dronów kontrolujących infrastrukturę, np. rurociągi naftowe, organizowanie kalendarzy osobistych i biznesowych, odpowiadanie na proste pytania z działu obsługi klienta, koordynowanie działań z innymi inteligentnymi systemami, wykonywanie zadań takich jak rezerwacja hotelu w każdej chwili pomóc zidentyfikować ewentualne guzy za pomocą prześwietlenia, zablokować nieodpowiednie treści w Internecie, wykryć zużycie wind na podstawie danych zebranych za pomocą urządzeń IoT, lista może ciągnąć się bardzo długo.

Jakie funkcje może pełnić ogólna sztuczna inteligencja?

Ogólna sztuczna inteligencja jest bardzo różna i jest rodzajem inteligencji, który można dostosować, podobnym do inteligencji ludzkiej, elastyczną formą inteligencji, która może nauczyć się wykonywać zupełnie inne zadania, od cięcia po budowanie arkusze kalkulacyjne lub porozmawiaj na różne tematy w oparciu o zgromadzone przez niego doświadczenie. Ta sztuczna inteligencja jest częściej widywana w filmach takich jak Skynet w Terminatorze, ale która jeszcze nie istnieje, a eksperci AI piszą o tym, jak to wszystko wkrótce stanie się rzeczywistością.

Badanie 2012/13 przeprowadzone wśród czterech grup ekspertów, przeprowadzone przez badaczy sztucznej inteligencji Vincenta Müllera i filozofa Nicka Bostroma, wykazało 50-procentowe prawdopodobieństwo, że sztuczna ogólna inteligencja (AGI) zostanie opracowana między 2040 a 2050 r., a do 2075 r. wzrośnie do 90 proc. Grupa poszła jeszcze dalej, przewidując, że sztuczna inteligencja może znacznie przewyższyć ludzką aktywność w prawie każdym obszarze.

Jednak niektórzy eksperci AI uważają, że takie prognozy są szalenie optymistyczne, biorąc pod uwagę naszą ograniczoną wiedzę na temat ludzkiego mózgu, i wierzą, że AGI będzie nadal ewoluować na przestrzeni wieków.

Co to jest uczenie maszynowe?

Istnieje szeroki zakres badań nad sztuczną inteligencją, z których wiele wzajemnie się uzupełnia i uzupełnia.

Obecnie uczenie maszynowe to przestrzeń, w której system komputerowy otrzymuje duże ilości danych, które następnie wykorzystuje do uczenia się, jak wykonać określone zadanie, takie jak rozpoznawanie mowy lub tworzenie napisów do zdjęć.

Co to są sieci neuronowe (botnet)?

Sieci neuronowe są kluczem do procesu uczenia maszynowego. Są to inteligentne sieci połączonych warstw algorytmów, zwanych neuronami, które przekazują sobie nawzajem dane i które można nauczyć wykonywania określonych zadań poprzez zmianę ważności przypisywanej oryginalnym danym. Podczas szkolenia tych sieci neuronowe znaczenie informacji dołączonych jako dane wejściowe będzie się zmieniać, dopóki dane wyjściowe z sieci neuronowej nie będą bardzo zbliżone do pożądanego, w którym to momencie sieć „uczy się” wykonywania tego lub innego zadania.

Podzbiorem uczenia maszynowego jest uczenie głębokie, w którym sieci neuronowe są rozszerzane w rozległe sieci z ogromną liczbą warstw, które są trenowane przy użyciu ogromnych ilości danych. To właśnie te głębokie sieci neuronowe napędzają obecny postęp w zakresie zdolności komputerów do wykonywania zadań, takich jak rozpoznawanie mowy i widzenie komputerowe.

Istnieć różne rodzaje sieci neuronowe o różnych mocnych i słabych stronach.

Rekurencyjne sieci neuronowe to rodzaj sieci neuronowych szczególnie dobrze przystosowany do przetwarzania języka i rozpoznawania mowy, podczas gdy splotowe sieci neuronowe są najczęściej używane do rozpoznawania obrazów. Jednym z najwyraźniejszych przykładów sieci neuronowej jest: tłumacz Google.

Innym obszarem badań nad sztuczną inteligencją są obliczenia ewolucyjne, które zapożyczając ze słynnej teorii doboru naturalnego Darwina, zauważają, że algorytmy genetyczne przechodzą losowe mutacje i kombinacje między pokoleniami w celu wypracowania optymalnego rozwiązania danego problemu.

Takie podejście zostało nawet wykorzystane do pomocy w konstruowaniu modeli sztucznej inteligencji, skutecznie wykorzystując sztuczną inteligencję do tworzenia sztucznej inteligencji. Takie wykorzystanie algorytmów ewolucyjnych do optymalizacji sieci neuronowych nazywa się neuroewolucja i może odgrywać ważną rolę w ułatwianiu rozwoju skutecznej sztucznej inteligencji, ponieważ korzystanie z inteligentnych systemów staje się coraz powszechniejsze, zwłaszcza gdy zapotrzebowanie na informacje często przewyższa podaż. Ta metoda została niedawno zademonstrowana przez firmę Uber Labs, który opublikował wyniki badania nad wykorzystaniem algorytmów genetycznych do trenowania głębokich sieci neuronowych ze wzmocnieniem problemu.

Wreszcie istnieją systemy eksperckie, w których komputery są zaprogramowane za pomocą algorytmów, które pozwalają im podejmować szereg decyzji w oparciu o dużą liczbę danych wejściowych, co pozwala maszynie naśladować zachowanie eksperta-człowieka w określonej dziedzinie. Przykładem takich systemów opartych na wiedzy może być np. system autopilota na pokładzie samolotu.

Co pomaga w rozwoju Sztucznej Inteligencji?

Największe przełomy w badaniach nad technologią AI w ostatnich latach dotyczyły uczenia maszynowego, a konkretnie głębokiego uczenia się.

Wynikało to po części z łatwej dostępności danych, a także szybkiego wzrostu rozwoju mocy obliczeniowej równoległej w ostatnich latach, podczas których coraz powszechniejsze stało się wykorzystywanie klastrów GPU do trenowania systemów uczenia maszynowego.

Te klastry oferują nie tylko więcej potężne systemy do trenowania modeli uczenia maszynowego, ale są teraz powszechnie dostępne jako usługi w chmurze przez internet. Z biegiem czasu duże firmy technologiczne, takie jak Google i Microsoft, zaczęły używać wyspecjalizowanych procesorów dostosowanych zarówno do uruchomionych, jak i nowo trenowanych modeli uczenia maszynowego.

Przykładem jednego z tych niestandardowych chipów jest (TPU), Ostatnia wersja co przyspiesza szybkość, z jaką wydajne modele uczenia maszynowego zbudowane przy użyciu biblioteki oprogramowania Google Tensorflow mogą wywnioskować informacje z danych, a także szybkość, z jaką można je trenować.

Te chipy są używane nie tylko do trenowania modeli dla DeepMind firmy Google, ale także do modeli, które są w usługach rozpoznawania i rozpoznawania obrazów Google Photos, a także usług, które umożliwiają społeczeństwu tworzenie modeli uczenia maszynowego przy użyciu TensorFlow Google. Druga generacja tych chipów została zaprezentowana na konferencji Google w maju zeszłego roku, z szeregiem tych nowych TPU zdolnych do trenowania modelu uczenia maszynowego Google używanego do tłumaczenia w czasie o połowę krótszym niż przetwarzanie szeregu danych od góry GPU(GPU).

Jakie są elementy uczenia maszynowego?

Jak wspomniano, uczenie maszynowe jest podzbiorem sztucznej inteligencji i ogólnie dzieli się na dwie główne kategorie: uczenie maszynowe nadzorowane i nienadzorowane.

Nadzorowane uczenie maszynowe

Powszechną metodą szkolenia systemów AI jest trenowanie ich za pomocą bardzo duża liczba informacje z przykładami. Te systemy uczenia maszynowego otrzymują ogromną ilość danych, które zostały opatrzone adnotacjami w celu podkreślenia interesujących funkcji. Mogą to być zdjęcia z tagiem informującym użytkownika, czy zawierają psa, czy podpis testowy. Oznacza to, że dokument jest rozpoznawany, tekst lub obraz na dokumencie. Następnie system określa, do czego można przypisać zdjęcie i umieszcza odpowiednie etykiety na zdjęciach (rodzaj zwierzęcia, pomnik itp.) lub próbuje rozpoznać i odczytać tekst na dokumencie. Po przeszkoleniu system może zastosować te etykiety do nowych danych, takich jak pies na właśnie przesłanym zdjęciu.

Ten proces uczenia się maszyn, w powyższym przykładzie, nazywa się uczeniem nadzorowanym. Etykietowanie jest zwykle wykonywane przez pracowników pracujących na platformach takich jak .

Szkolenie tych systemów AI zazwyczaj wymaga dużej ilości danych, a niektóre systemy muszą wyszukiwać miliony przykładów, aby nauczyć się, jak skutecznie wykonywać zadania, choć w dobie eksploracji informacji i danych staje się to coraz bardziej możliwe. Treningowe zbiory danych są ogromne i powiększają się – Grafika Google ma około dziewięciu milionów dostępnych obrazów, a hosting wideo YouTube ma do siedmiu milionów z oznaczeniem wideo.

W szkolenie takiej sztucznej inteligencji zaangażowani są ludzie. Jak już wspomniano powyżej, umieszczają różne etykiety na teksty, obrazy, filmy. Etykiety te są używane przez sztuczną inteligencję jako przykłady do przyszłego rozpoznawania tekstu i obrazów. W ciągu dwóch lat zgromadzono personel liczący prawie 50 000 osób, z których większość została zatrudniona przez Amazon Mechanical Turk.

Na dłuższą metę dostęp do ogromnych, oznaczonych zbiorów danych może również okazać się mniej ważny niż dostęp do dużej mocy obliczeniowej.

W ostatnich latach systemy uczenia maszynowego wykazały, że mogą generować ogromne ilości informacji do własnego uczenia się.

Takie podejście może prowadzić do powstania częściowo nadzorowanego uczenia się, w ramach którego systemy mogą uczyć się wykonywania zadań przy użyciu znacznie mniej oznaczonych danych, niż jest to wymagane w dzisiejszych systemach uczenia nadzorowanego.

Nienadzorowane uczenie maszynowe

W przeciwieństwie do tego pierwszego, uczenie nienadzorowane przyjmuje inne podejście, w którym algorytmy próbują identyfikować wzorce w danych, szukając podobieństw, które można wykorzystać do sklasyfikowania tych danych.

Przykładem może być zgrupowanie owoców o tej samej wadze lub samochody o tej samej wielkości silnika.

Algorytm nie jest wstępnie skonfigurowany do wybierania określonych typów danych, po prostu wyszukuje dane, które można pogrupować według ich podobieństw, np. Google News grupuje codziennie wiadomości na podobne tematy.

Nauka wzmacniania

W uczeniu się przez wzmacnianie system stara się zmaksymalizować nagrodę w oparciu o dane wejściowe, zasadniczo przechodząc przez proces prób i błędów, aż osiągnie najlepszy możliwy wynik.

Przykładem uczenia się przez wzmacnianie jest Google DeepMind, który służy do lepszej wydajności człowieka w różnych klasycznych grach wideo. System żywi się pikselami z każdej gry i określa różne informacje, na przykład odległość między obiektami na ekranie.

Wiodące firmy w dziedzinie technologii sztucznej inteligencji

Giganci technologiczni, podobnie jak startupy, robią wszystko, aby zdobyć miejsce na rynku technologii przyszłości, czyli technologii związanych z rozwojem sztucznej inteligencji.

Każdy z nich regularnie pisze wykłady i artykuły dotyczące badań nad sztuczną inteligencją, choć prawdopodobnie największy wpływ na świadomość społeczną na temat sztucznej inteligencji ma Google, dzięki DeepMind AlphaGo.

Jakie usługi AI są dostępne dla użytkowników?

Wszystkie główne platformy chmurowe Amazon i Google Cloud Platform zapewniają dostęp do procesora graficznego w celu przygotowania i uruchomienia modeli uczenia maszynowego.

Cała niezbędna infrastruktura i usługi są dostępne z dużej trójki w hurtowniach danych w chmurze, które są w stanie przechowywać ogromną ilość informacji potrzebnych do trenowania modeli uczenia maszynowego, usług transformacji danych w celu przygotowania informacji do analizy, narzędzi do wizualizacji w celu przejrzystego wyświetlania wyników oraz oprogramowania, które upraszcza budowa modeli.

Te platformy chmurowe ułatwiają tworzenie niestandardowych modeli uczenia maszynowego. Google niedawno wprowadził usługę automatyzującą tworzenie modeli AI o nazwie Cloud AutoML. Ta usługa tworzy niestandardowe modele rozpoznawania obrazów, nawet jeśli użytkownik nie ma wcześniejszego doświadczenia z uczeniem maszynowym.

W oparciu o technologię chmury, uczenie maszynowe, usługi stale się rozwijają, modele uczenia się AI ulegają uproszczeniu.

W przypadku firm, które nie chcą tworzyć własnych modeli uczenia maszynowego, ale chcą korzystać z usług na żądanie opartych na sztucznej inteligencji — takich jak rozpoznawanie głosu, wizji i języka — platforma Microsoft Azure wyróżnia się szerokim zakresem oferowanych usług, następnie Google Cloud Platform, a następnie AWS. W międzyczasie IBM próbuje również sprzedawać specyficzne dla branży usługi technologii sztucznej inteligencji, od opieki zdrowotnej po handel, grupując te oferty pod jedną nazwą, a ostatnio zainwestował 2 miliardy dolarów w rozwój usług sztucznej inteligencji.

Kto wygrywa wyścig AI?

Sztuczna inteligencja w opiece zdrowotnej

Sztuczna inteligencja może mieć znaczący wpływ na rozwój opieki zdrowotnej, pomagając radiologom w identyfikowaniu guzów za pomocą promieni rentgenowskich, pomagając naukowcom odkrywać sekwencje genetyczne związane z chorobami oraz identyfikując cząsteczki, które mogą prowadzić do lepszych leków.

Technologia AI została przetestowana w szpitalach na całym świecie. Obejmują one korzystanie z systemu IBM Watson, korzystanie z systemów DeepMind firmy Google przez brytyjską National Health Service i nie tylko.

Ponownie, to zależy od tego, kogo zapytasz.

CEO Tesli i SpaceX twierdzi, że sztuczna inteligencja jest „podstawowym zagrożeniem dla istnienia ludzkiej cywilizacji”. W ramach swojego dążenia do silniejszego nadzoru regulacyjnego i bardziej odpowiedzialnych badań mających na celu złagodzenie niedociągnięć sztucznej inteligencji, stworzył OpenAI, organizację non-profit zajmującą się badaniami nad sztuczną inteligencją, której celem jest promowanie i rozwijanie przyjaznej dla człowieka sztucznej inteligencji, która powinna przynieść korzyści społeczeństwu jako cały.

Podobnie, szanowany fizyk Stephen Hawking ostrzegł, że gdy już powstanie wystarczająco zaawansowana sztuczna inteligencja, szybko rozwinie się ona do punktu, w którym technologia wielokrotnie przekracza ludzkie możliwości, zjawisko znane jako Osobliwość, i może stanowić egzystencjalne zagrożenie dla człowieka. wyścigi.

Jednak pogląd, że ludzkość jest na skraju zniszczenia przez sztuczną inteligencję, wydaje się niektórym badaczom sztucznej inteligencji niedorzeczny.

Możliwość sztucznie inteligentnych systemów zastępujących większość dzisiejszej pracy fizycznej może odebrać ludziom pracę. To bardziej prawdopodobna teoria w najbliższej przyszłości.
Chociaż sztuczna inteligencja nie zastąpi wszystkich miejsc pracy, wydaje się, że zmieni charakter pracy, a jedynym pytaniem jest, jak szybko i jak głęboko automatyzacja zmieni miejsce pracy.

Nie ma prawie żadnego obszaru ludzkiego wysiłku, którego AI nie mogłaby opanować. Ekspert AI Andrew Ng ujął to w ten sposób: „Wiele osób wykonuje rutynową, powtarzalną pracę. Niestety, technologia jest szczególnie dobra w automatyzacji rutynowej, powtarzalnej pracy”, stwierdzając, że widzi „znaczne ryzyko bezrobocia technologicznego w ciągu najbliższych kilku dekad”.

Zaczynają pojawiać się dowody na to, które miejsca pracy zostaną przesunięte. Amazon uruchomił niedawno supermarket w Seattle, w którym klienci po prostu zdejmują produkty z półek i wychodzą. Co to oznacza dla ponad trzech milionów ludzi w Stanach Zjednoczonych, którzy pracują jako kasjerzy, dopiero się okaże. Amazon zamierza wykorzystać roboty do poprawy wydajności w swoich magazynach. Roboty te organizują i przewożą towary dla człowieka, który wybiera towary do wysłania. Amazon ma ponad 100 000 robotów w centrach dystrybucyjnych i planuje rozwój i zwiększenie liczby robotów. Ale Amazon podkreśla też, że wraz ze wzrostem liczby botów będzie rosła liczba ludzkich pracowników w tych magazynach. Jednak w Amazon i mniejszych firmach zajmujących się robotyką na ten moment możesz zobaczyć, jak ludzie i roboty współpracują ze sobą. Te roboty, które współpracują z osobą w tej samej przestrzeni, nazywają się coboty.

Pojawienie się w pełni autonomicznych, samojeżdżących samochodów na drogach publicznych nie jest faktem, ale według niektórych szacunków technologia ta może w ciągu najbliższych dziesięcioleci zabrać 1,7 mln miejsc pracy, nawet bez uwzględnienia kurierów i taksówkarzy, którzy również zostaną wyrzuceni. pracy.

Jednak niektóre z najłatwiejszych do zautomatyzowania zadań nie wymagają nawet użycia robotyki. Obecnie miliony ludzi pracują w administracji, wprowadzają i kopiują dane między systemami, rezerwują hotele dla firm i wiele więcej. Tak jak oprogramowanie będzie lepiej, automatycznie zaktualizuje system i tag ważna informacja spadnie zapotrzebowanie na administratorów.

Ale powstaną nowe miejsca pracy, które zastąpią te utracone. Zalecamy przeczytanie artykułu „” na ten temat. Nie wiadomo jednak, jak szybko powstaną nowe miejsca pracy, które zastąpią te utracone przez człowieka. I czy ludzie będą mogli tak szybko uczyć się i dostosowywać do nowych technologii.

Nie wszyscy ludzie są pesymistami. Dla niektórych sztuczna inteligencja to technologia, która będzie uzupełniać, a nie zastępować pracowników.

Wśród ekspertów AI pojawiają się opinie o tym, jak szybko sztuczne inteligentne systemy przerosną ludzkie możliwości.

Future of Humanity Institute Uniwersytetu Oksfordzkiego poprosił kilkuset ekspertów od uczenia maszynowego o przewidzenie możliwości sztucznej inteligencji w nadchodzących dziesięcioleciach.

Firmy dodały sztuczną inteligencję do wyzwania, które obliczyło, że liczba kierowców ciężarówek zostanie zmniejszona do 2027 r., sztuczna inteligencja przekroczy ludzkie możliwości w handlu detalicznym do 2031 r., tworząc bestseller do 2049 r. i wykonując pracę chirurga do 2053 r.

Eksperci oszacowali stosunkowo duże prawdopodobieństwo, że sztuczna inteligencja wyprzedzi ludzi we wszystkich dziedzinach w ciągu 45 lat i zautomatyzuje wszystkie ludzkie zadania w ciągu 120 lat.

Największe firmy audytorskie na świecie stopniowo zaczynają wprowadzać do swojej działalności technologie sztucznej inteligencji. Audytorzy mają nadzieję, że sztuczna inteligencja pomoże im uwolnić ludzi od technicznych i rutynowych zadań w celu optymalizacji ich pracy.


Jak się okazało, firmy audytorskie EY i PwC realizują pilotażowy projekt wykorzystania sztucznej inteligencji (AI) do rozpoznawania obrazów, wykonując część zadań księgowych i innego rodzaju rutynowe czynności techniczne, które obecnie wykonują pracownicy. Brytyjskie wydanie zauważa, że ​​wszystkie firmy z Wielkiej Czwórki – PwC, EY, KPMG i Deloitte – aktywnie zwiększają inwestycje w nowe technologie, w tym w sztuczną inteligencję, aby zoptymalizować swoje działania i uniknąć błędów ludzkich. Do najbardziej obiecujących zastosowań sztucznej inteligencji należą przyspieszanie wypełniania wniosków od i dla klientów, rozpoznawanie „anomalii” w transakcjach finansowych oraz analizowanie danych pod kątem możliwych ingerencji z zewnątrz i oszustw.

„Staje się dla nas coraz bardziej jasne, że sztuczna inteligencja będzie miała ogromny wpływ na naszą działalność, dlatego już teraz staramy się jak najlepiej wykorzystać ten obszar” – powiedział FT John Andrews, szef działu technologii i inwestycji w PwC UK. Inwestycje w tych obszarach prawdopodobnie wzrosną wykładniczo.

Z kolei KPMG planuje wprowadzić system, który będzie oceniał informacje kredytowe na podstawie analizy portfeli kredytowych w bankach komercyjnych. Ponadto sztuczną inteligencję można wykorzystać do analizy predykcyjnej i budowania modeli probabilistycznych. Od ponad roku KPMG współpracuje z projektem IBM Watson i kilkoma start-upami AI w celu wdrożenia tych technologii.

FT zauważa, że ​​duża czwórka audytorów aktywnie wdraża sztuczną inteligencję również dlatego, że stara się bronić swojej pozycji na rynku UE, gdzie konkurencja wyraźnie wzrosła w ostatnim czasie: nowe przepisy unijne, zgodnie z którymi firma jest zobowiązana do ogłoszenia przetargu na audyt i zmienić audytora przynajmniej raz na 20 lat, znacznie zwiększyła liczbę przetargów na audyt zewnętrzny. Tym samym liczba takich przetargów wśród spółek wchodzących w skład indeksu FTSE 250 wzrosła z pięciu w 2012 roku do pięćdziesięciu w 2016 roku.

„Oczekiwania w branży audytorskiej wyraźnie rosną, ponieważ organy regulacyjne stają się coraz bardziej wymagające”, zauważa Steven Giggs z Deloitte. „Firmy audytorskie starają się wyróżniać z tłumu swoim podejściem do innowacji i własnymi najlepszymi praktykami, co powinno dać im przewagę konkurencyjną. ”.

Pokrótce porozmawiamy o ewolucji rozwoju technologii i sposobach przesyłania informacji w kanale radiowym. Dla lepszego zrozumienia materiału przyjrzyjmy się kilku podstawowym pojęciom przyjętym w komunikacji radiowej i przekazywaniu informacji za pomocą fal radiowych.

Modulacja umożliwia transmisję sygnału na duże odległości w zadanym paśmie częstotliwości io zadanej charakterystyce (faza, częstotliwość, amplituda).

Połączyć– medium, w którym sygnał skutecznie się rozchodzi poprzez przesyłanie energii elektromagnetycznej.

Kodowanie zapewnia odporność na zakłócenia przesyłane informacje i niezawodność transmisji danych.

Szyfrowanie zapoznaj się z sekcją dotyczącą bezpieczeństwa informacji. To zapewnia ograniczony dostęp do przesyłanych informacji i ochrony przed podsłuchem, ponieważ do dostępu potrzebny jest rodzaj klucza.

Metody separacji kanałów komunikacyjnych– środki techniczne umożliwiające zorganizowanie komunikacji wieloabonenckiej w danym paśmie częstotliwości. To oświadczenie będzie brane pod uwagę tylko za systemy cyfrowe telekomunikacja i łączność. Uwzględnimy tutaj również technologie sieciowe, takie jak protokół TCP/IP.

Pierwsze metody transmisji sygnału drogą bezprzewodową

Przeanalizujmy kolejność rozwoju technologii radiowych z konsekwentnym "włączeniem" powyższych pojęć.

Zastosowano pierwsze nadajniki-odbiorniki radiowe (nadajniki-odbiorniki) modulacja amplitudy (JESTEM), patrz rys. 1, oraz jego odmiany: zrównoważony AM (BAM z tłumieniem nośnika), BAM jednowstęgowy (OBAM).

Harmonogram AM

Ogólny wzór na AM to: Sam(T)=(1+ m* grzech(ws* T))* Vn* grzech(nie* T) (1), gdzie

Sam(T) - osygnał modulowany;

mto wskaźnik modulacji, m = Vs/ Vn;

Vsjest amplitudą nadawanego sygnału;

wsto częstotliwość nadawanego sygnału;

Vn

nieto częstotliwość fali nośnej.

Był to pierwszy krok w kierunku przekazywania informacji na odległość. Kanały zostały oddzielone częstotliwościami poprzez dostrojenie filtrów wejściowych do innej częstotliwości. Rozwiązanie działało dobrze, ale AM ​​był zbyt podatny na zakłócenia zewnętrzne, takie jak uderzenia pioruna, iskrzenie na zaciskach generatorów, silników, celowe zakłócenia itp.

Informacje były przesyłane drogą powietrzną (over the air) oraz przewodami (kabel). Wraz z pojawieniem się szybkiej technologii cyfrowej stało się możliwe kodowanie informacji w widok cyfrowy, co z kolei umożliwiło zaszyfrowanie sygnału. Również do transmisji sygnałów impulsowych (cyfrowych) szeroko stosowana jest kwadraturowa modulacja amplitudy (QAM - QAM) i jej odmiany.

Modulacja amplitudy jest stosowana w zakresach LW, MW, HF do transmisji analogowych. W przypadku nadawania cyfrowego (DRM) - używane są tylko HF. Podział częstotliwości radiowych stosowanych w technice na zakresy można uwzględnić w tabeli 3, która znajduje się poniżej:

4 Stosowany (Warstwa aplikacji) np.http , RTSP , FTP , DNS
3 Transport (Warstwa transportowa) np.TCP , UDP , SCTP , DCCP (ROZERWAĆ , protokoły routingu, takie jakOSPF które działają na górzeIP , są częścią warstwy sieciowej)
2 sieć (warstwa internetowa) W przypadku protokołu TCP/IP jest toIP (protokoły pomocnicze, takie jakICMP IIGMP , pracują przez IP, ale również należą do warstwy sieciowej; protokółARP jest niezależnym protokołem pomocniczym działającym na wierzchu warstwy łącza)
1 kanałowe (warstwa łącza) Ethernet , IEEE 802.11 bezprzewodowa sieć Ethernet, POŚLIZG , pierścień tokena , bankomat IMPLS , środowisko fizyczne i zasady kodowania informacji,T1 , E1

Zakres LW, MW jest szeroko stosowany do komunikacji poza horyzontem, ponieważ długość fali na tych częstotliwościach umożliwia odbicie sygnału od jonosfery i opadnięcie poza horyzont, co umożliwia zorganizowanie komunikacji na większą odległość niż 500 km, można to przypisać głównej przewadze w porównaniu z innymi pasmami częstotliwości, w których stosuje się AM. Plusem jest też sygnał wąskopasmowy (patrz rys. 2), którym inne rodzaje modulacji nie mogą się pochwalić. Na rysunku 2 Ω jest skrajną częstotliwością użytecznego widma sygnału i w rezultacie nie ma zużycia energii przez nadajnik dla fałszywych składowych widmowych, szczególnie dobry wynik pod względem energii jest osiągany dla OBAM (SSB - jednostronnie zrównoważony modulacja amplitudy z tłumioną nośną).

Modulacja kątowa (UM). Rodzaj modulacji, w którym sygnał wyjściowy (nośna) na wyjściu modulatora ma stałą amplitudę, a zmienia się faza, częstotliwość lub ich kombinacja.

Rodzaje modulacji kątowej: częstotliwościowa (FM, FM) i fazowa (FM, PM) - stosowane w technologii analogowej. Kwadraturowe przesunięcie fazowe (QPSK, QPSK), kluczowanie z przesunięciem częstotliwości gaussowskiej (GFSK), kluczowanie z przesunięciem częstotliwości gaussowskiej (GMSK) itp. sygnały cyfrowe. Cyfrowe rodzaje modulacji, lub jak to się nazywa kluczowanie cyfrowe, omówimy bardziej szczegółowo poniżej, gdzie zostaną wskazane jej główne zalety i wady, związane z kompromisami, jakie muszą poczynić twórcy, aby zapewnić niezawodność komunikacji.

Rysunek 3 pokazuje FM i jego widmo. Widmo sygnałów z PA jest znacznie szersze niż z AM, ale przy kwadraturowej modulacji amplitudy widma są porównywalne w ich paśmie częstotliwości. Rysunek 3 (na przykład) pokazuje FM i jego widmo.

Rys 3: Wykres czasowy FM jako typu PA i jego widmo przy wskaźniku modulacji m = 15

UM i jego odmiany są wykorzystywane w radiofonii i telewizji. Jest to zakres VHF (VHF / VHF), UHF (VHF-UHF).

Ogólna formuła UM:m(T) = Vc* sałata(toaleta* T+ Q(T)) (2), gdzie

m(T) to kształt sygnału PA;

Vcjest amplitudą fali nośnej;

toaletajest częstotliwością fali nośnej;

Q(T) - prawo zmiany fazy, zmieniając to prawo można uzyskać modulację fazy lub częstotliwości.

Porównując rysunki 3 i 2, możemy stwierdzić, że w przypadku UM widmo jest szersze niż w przypadku AM. Jest to rodzaj zapłaty za odporność na zakłócenia sygnału.

Prawie wszystkie stacje do noszenia, począwszy od 30 MHz, wykorzystywały UM (FM, FM) i były dostępne we wszystkich oddziałach wojskowych.

modulacja cyfrowa

Z rozwojem podstawa elementu i aparat matematyczny dla technologii cyfrowej na początku lat 90. nastąpił rewolucyjny skok w tworzeniu szybkich mikroukładów cyfrowych. Umożliwiło to zakodowanie sygnału w postaci cyfrowej. Przejście na cyfrowe metody przekazu informacji daje niezaprzeczalna zaleta przed analogowymi są to: kodowanie odporne na zakłócenia, szyfrowanie i organizacja sieci wieloabonenckiej w jednym paśmie częstotliwości, natomiast rozdzielenie kanałów komunikacyjnych następuje poprzez ustawienie adresów abonentów i routerów (o tym szerzej poniżej , gdzie brane są pod uwagę podstawy organizacji sieci).

Rozważ typowy Schemat blokowy organizacja komunikacji cyfrowej (patrz rys. 4).

Przesyłana wiadomość - audio, wideo, zdjęcie lub jakakolwiek inna informacja jest wstępnie konwertowana z postaci analogowej na postać cyfrową. Digitalizacja lub kodowanie jest obsługiwane przez blok „Source Coding”. Może to być konwencjonalny przetwornik analogowo-cyfrowy (ADC), którego wyjściem będzie kod binarny, ciąg zer i jedynek. Sygnał ten w zasadzie mógłby być już wysłany do modulatora i rozgłaszany, ale co by było, gdyby sygnał był zniekształcony na wejściu nadajnika informacji na skutek zakłóceń i po stronie odbiorczej zamiast jedynki otrzymamy serię zer lub nawzajem? Spowoduje to utratę danych. Aby uniknąć tej sytuacji, oryginalny strumień cyfrowy jest przekazywany do bloku kodującego z korekcją błędów.

Blok kodujący z korekcją błędów to szybkie urządzenie, które konwertuje źródło(strumień zer i jedynek z przetwornika ADC lub innego urządzenia) również w pakiet danych cyfrowych, ale już w zmodyfikowanej formie. Do tego pakietu wprowadzana jest redundancja według określonego algorytmu, który po stronie odbiorczej umożliwia odtworzenie sygnału z określoną liczbą błędów. Po konwersji sygnału cyfrowy strumień danych trafia do modulatora.

Modulacja cyfrowa różni się od analogowej. Jego osobliwością jest to, że w przypadku dużych ilości danych (lub przy dużych prędkościach) konieczne jest przesyłanie wielu bitów na znak. Przykładem takiej modulacji dla komunikacji radiowej jest 4-FSK (kluczowanie z przesunięciem częstotliwości) lub 4-GFSK (kluczowanie z przesunięciem częstotliwości Gaussa). Chodzi o zamianę kodu wejściowego na impulsy. Na podstawie tych impulsów modulator generuje skoki fazy, fazy i amplitudy lub częstotliwości w określonym przedziale czasu. Z reguły czas trwania tego interwału to czas transmisji jednego bitu. Zatem ilość czasu poświęcona na przesłanie kilku bitów jest taka sama, jak przy przesyłaniu jednego oryginalnego bitu, który w języku technologii cyfrowej nazywany jest symbolem. Dzięki takim manipulacjom możemy uzyskać od 16 do 256 bitów na symbol (np. dla QAM - kwadraturowa modulacja amplitudy). Następnie symulowany sygnał jest przesyłany do obszaru wysokich częstotliwości (na częstotliwość nośną) i wypromieniowywany w powietrze.

Po stronie odbiorczej wszystko dzieje się w odwrotnej kolejności: demodulacja (detekcja) -> dekodowanie odporne na zakłócenia (korygowanie błędów w odebranym pakiecie danych) -> dekodowanie (konwersja na sygnał analogowy lub wymagany typ sygnału) -> wydawanie informacji operatorowi lub wykonywanie jakichkolwiek czynności.

Tak więc modulacja cyfrowa umożliwia:

  1. Zaszyfruj informacje.
  2. Popraw bity danych poprzez wprowadzenie kodowania korygującego błędy, co zwiększa prawdopodobieństwo prawidłowego odbioru informacji.
  3. Zwiększ odporność na zakłócenia, a co za tym idzie zwiększ zasięg komunikacji dzięki zastosowaniu kodowania odpornego na zakłócenia, dużej zawartości informacyjnej przesyłanego sygnału oraz organizacji złożonych rodzajów modulacji.

Pojawienie się radiostacji cyfrowych zrewolucjonizowało telekomunikację, gdyż dało ogromną przewagę w zakresie zapewnienia bezpieczeństwa przekazu informacji, ale jednocześnie nie rozwiązano do końca kwestii współdziałania dużej liczby poszczególnych jednostek bojowych ze sobą .

Inteligentne sieci

Na początku lat 80. nastąpił aktywny rozwój technologie sieciowe do transmisji danych przez system komunikacji przewodowej, organizując wielokanałowość według numeru abonenta. W efekcie zostało to zrealizowane w postaci sieci wieloużytkownikowej – ISDN (Integrated Services Digital Network). Umożliwiło to połączenie dużej grupy użytkowników w jedną cyfrową przestrzeń, w której można wymieniać między sobą wiadomości, głos, a nawet dane wideo. Wadą ISDN nie jest uniwersalność systemu. Wyrażało się to w złożoności jego ustawień, złożoności aktualizacji oprogramowania, a co najważniejsze, gdy wprowadzano poważne zmiany w protokole, konieczna była aktualizacja sprzętu. Oznacza to, że system nie był samodostosowujący się, nie był intelektualny.

Dla lepszego zrozumienia zasady działania inteligentnych sieci i ich zalet, pokrótce rozważymy organizację nowoczesnej sieci komputerowej. dobry przykład to Internet oparty na stosie protokołów TCP/IP, który został przyjęty jako standard w 1983 roku i od tego czasu jest ulepszany.

Rysunek 5 przedstawia typową organizację sieciową, istnieją sieci o numerach 129.13.0.0, 198.21.17.0, 56.0.0.0 oraz routery (Router), które je łączą.

Tabela 1 pokazuje, że każde urządzenie lub abonent ma swój własny adres IP ( adres sieciowy). W takim przypadku każde urządzenie znajduje się we własnej sieci, jest to oznaczone cyframi (od lewej do prawej), na końcu z reguły zerami.

Maska sieci określa maksymalną liczbę abonentów, którzy mogą znajdować się w danej sieci (podsieci), definicja następuje poprzez logiczne przemnożenie maski i adresu abonenta. W teorii maksymalny numer N abonentów jednej sieci to:

gdzie 32 to liczba bitów w adresie IP

Aby wysłać pakiet danych z podsieci 129.13.0.0 do dowolnego abonenta znajdującego się w sieci 213.34.12.0, należy przejść przez routery określając adresy sieciowe i bramy - czyli zorganizować swego rodzaju kanał komunikacyjny. Innymi słowy, znając mapę sieci, możesz łatwo dotrzeć do dowolnego abonenta, ale musisz liczyć się z tym, że po stronie odbiorczej możesz łatwo odmówić dostępu, co z kolei umożliwia tworzenie zamkniętych kanałów komunikacji. Do celów wojskowych podana funkcja niezastąpiony.

Powyżej pokazano pokrótce, co jest potrzebne do stworzenia sieci wieloużytkownikowej. Teraz pytanie dotyczy przekazywania informacji, co należy zrobić, aby jednoczesna praca wszyscy abonenci połączeni z siecią. W tym celu utworzono stos protokołów TCP/IP (Transmission Control Protocol/Internet Protocol).

Zobacz tabelę. 4 ( Tabela niektórych stacji i porównanie ich cech):

Charakterystyka Verdelit-1 Harris RF7850M-HH Tadiran SDR-7200HH
MANET TAk Zaawansowane ECCM i bezpłatne wyszukiwanie kanałów TAk
SIATKA TAk TAk TAk
Rodzaj modulacji 2FSK, 2GFSK, 4GFSK, 4FSK, MSK, OOK. SDR: głos analogowy AM/FM, głos FSK/ASK-MELP, dane ASK, dane FSK/TCM, dane GMSK/QPSK ECCM SDR
PRFC 400 skoków/sek Nie TAk
Sieć IP IPv6, SNMP IPv4, SNMP TAk
Zakres częstotliwości, MHz 160 – 930 30-512 NBWF:30-512 WBWF: 225 - 512
Szyfrowanie AES256 AES256 AES256
Szybkość transmisji 1,2 do 512 kb/s Do 1 Mbit Do 1 Mbit
Moc nadajnika Adaptacyjna 10µW do 2W Dyskretne 0,25, 1, 2, 5 i 10 W 5 W
GPS TAk TAk TAk
Cena względna Niska Średni wysoka
Dodać. FunkcjeUSBRS-232

Bluetooth v4/v6

Ethernet

TAkTAk TAkTAk TAkTAk

W tym artykule nie będziemy szczegółowo omawiać wszystkich poziomów. Najważniejsze, aby zrozumieć, że takie podejście do organizacji sieci umożliwia tworzenie złożonych sieci telekomunikacyjnych z zapewnieniem dostępu do informacji wielu abonentom jednocześnie.

Teraz wyobraź sobie, że ty i twoi towarzysze macie w rękach urządzenie, które działa za pośrednictwem bezprzewodowego kanału komunikacyjnego, podczas gdy możecie skonfigurować swoją sieć, zaszyfrować ją, zaszyfrować, zamknąć i bez pomocy stacji bazowych jednocześnie przesyłać dane do siebie, w tym samym czasie każda z Twoich stacji (walkie-talkie, telefon) będzie działać jako router lub swego rodzaju repeater. Fakt, że każde walkie-talkie może być jednocześnie reprezentowane przez repeater i router, zapewnia zwiększenie zasięgu komunikacji i połączenia z innymi skonfigurowanymi sieciami. W ten sposób doszliśmy do koncepcji budowy sieci typu MANET.

Co to jest MANET

Pod skrótem MANET zwyczajowo rozumie się sieć z dynamicznie zmieniającą się topologią, z reguły bez wchodzenia w szczegóły, jak szybko ta topologia się zmienia. Jest to jednak główne kryterium odróżniania topologii MANET od topologii ad hoc i topologii siatki. Zacznijmy więc od zdefiniowania, czym są sieci takie jak Mesh, Ad Hoc, mobile Ad Hoc i jaka jest między nimi różnica.

siatka sieci - sieci radiowe o strukturze komórkowej, składające się z bezprzewodowych routerów stacjonarnych, które tworzą bezprzewodową sieć szkieletową i obszar obsługi abonenta) oraz abonentów mobilnych/stacjonarnych, którzy mają dostęp (w obszarze zasięgu radiowego) do jednego z routerów. Topologia to gwiazda z losowym połączeniem węzłów referencyjnych (patrz rys. 7).

doraźnie sieci - sieci radiowe z losowymi abonentami stałymi, realizujące całkowicie zdecentralizowane sterowanie w przypadku braku stacji bazowych lub węzłów referencyjnych. Topologia jest ustalana losowym połączeniem węzłów.

MANET(Mobile Ad hoc NETworks) - sieci radiowe z losowymi abonentami sieci komórkowych, które realizują w pełni zdecentralizowaną kontrolę w przypadku braku stacji bazowych lub węzłów referencyjnych. Topologia - szybko zmieniająca się z losowym połączeniem węzłów.

Do tego należy dodać WSN (bezprzewodowe sieci czujników)- bezprzewodowe sieci czujnikowe (telemetryczne), składające się z małych węzłów czujnikowych ze zintegrowanymi funkcjami monitorowania określonych parametrów środowiskowych, przetwarzania i przesyłania danych przez kanały radiowe. W zależności od zadania mogą być budowane zgodnie z topologią siatki, ad hoc i MANET; sieci samochodowe VANET (sieci ad hoc pojazdów)– sieci komunikacyjne pojazdów; oraz wszelkiego rodzaju hybrydy ww.

W ostatnim dziesięcioleciu naukowcy z całego świata poświęcili wiele uwagi tworzeniu mobilnych sieci pakietowych, które nie posiadają infrastruktury stacjonarnej - sieci abonentów stacjonarnych (Ad Hoc) i mobilnych (MANET).

Takie sieci są samoorganizujące się, ponieważ ich węzły są nie tylko terminalami użytkowników końcowych, ale także routerami przekazującymi pakiety innych abonentów i uczestniczącymi w znajdowaniu do nich tras, dlatego sieci te są zdolne do samoorganizacji. Takie sieci mogą składać się z dziesiątek, setek, a nawet tysięcy węzłów. Zakres takich sieci jest dość szeroki. Dzięki temu sieci MANET są przydatne w operacjach poszukiwawczo-ratowniczych, w teatrze działań wojskowych na poziomie taktycznym, w miejscach zatłoczonych (np. do obsługi uczestników konferencji) oraz tam, gdzie nie ma infrastruktury telekomunikacyjnej (np. podczas wypraw na regiony odległe od „cywilizacji” ).

W przeciwieństwie do sieci o strukturze hierarchicznej i scentralizowanym zarządzaniu, sieci peer-to-peer bez infrastruktury składają się z węzłów tego samego typu, gdzie każdy węzeł posiada zestaw narzędzi programowych i sprzętowych, które umożliwiają organizowanie transferu danych bezpośrednio od źródła do odbiorcy, jeśli ścieżka jest fizycznie dostępna, a tym samym rozkłada obciążenie w sieci i zwiększa sumę wydajność sieci. Transmisja danych od jednego abonenta do drugiego może nastąpić nawet wtedy, gdy węzły te są poza zasięgiem bezpośredniej widoczności radiowej. W takich przypadkach pakiety danych tych abonentów są przekazywane przez inne węzły sieci, które mają połączenie z odpowiednimi abonentami. Sieci z wieloma przekaźnikami nazywane są sieciami multi-hop lub multi-hop. Podczas opracowywania takich sieci główne problemy to trasowanie pakietów od węzła źródłowego do węzła docelowego, skalowalność sieci, adresowanie punktów końcowych i utrzymywanie łączności w zmiennej topologii. Dlatego głównymi wymaganiami dla nowej generacji systemów łączności taktycznej są:

— pełna mobilność wszystkich abonentów i elementów sieci;

- zapewnienie określonej jakości usług dla użytkowników (QoS) na dużych obszarach iw warunkach stosowania przez wroga walki elektronicznej;

— niezawodna ochrona informacji;

- minimalne zaangażowanie człowieka w proces planowania, wdrażania i zarządzania sieciami.

Wiodący światowi producenci elektroniki, tacy jak Harris, Thales, Elbit Systems i inni oferują szeroką gamę specjalne środki połączenia z obsługą inteligentnych protokołów dla samoorganizujących się sieci o dynamicznej topologii MANET i zbudowanych w technologii SDR. Umożliwia to osiągnięcie przewagi informacyjnej nad przeciwnikiem, opartej na sieciocentrycznej interakcji uczestników wymiany informacji, a także pozwala na wykorzystanie w razie potrzeby starej floty sprzętu.

Jak to działa

Nowoczesne sieci telekomunikacyjne ewoluują w kierunku infrastruktury pakietowej opartej na stosie protokołów TCP/IP. Na przykład standard komunikacja mobilna trzecia generacja (3G) implikuje obecność operator mobilny Szkieletowa sieć komutacyjna oparta na przesyłaniu informacji pakietowych przez TCP/IP. A standard 4G całkowicie przenosi cały ruch operatora, w tym dostęp radiowy, do formatu „all-IP”. W tej części świata telekomunikacji osiągnięto konsensus. Sieci pakietowe mocno opanowały swoją niszę i nie zamierzają rezygnować ze swoich pozycji.

Telekomunikacja wojskowa, znana z konserwatyzmu i bezwładności, również zmierza w tym kierunku. W szczególności wspomniana wyżej firma Harris w linii przenośnych stacji typu Falcon III wymienia jako jedną z cech możliwość obsługi sieci radiowej z wykorzystaniem protokołów TCP/IP. Jaka jest korzyść z tego wojska? Odpowiedź jest prosta. Integracja wszystkich rodzajów ruchu dzięki sprawdzonym i debugowanym usługom internetowym. Wyobraź sobie żołnierza na polu bitwy, gdzie sytuacja zmienia się z każdą sekundą i musi zgłosić sytuację dowództwu w czasie rzeczywistym, otrzymać rozkaz, pobrać mapę taktyczną i tak dalej. Takie połączenie, oprócz niezawodności i bezpieczeństwa, musi być również odporne na zmiany topologii, routing musi charakteryzować się szybką zbieżnością, czyli gwarantują znalezienie trasy o określonej jakości w rozsądnym czasie, gwarantują brak pętli, zapewniają multicasting. A jeśli jest wielu takich żołnierzy. Powiedzmy, kompania czy batalion?

Na przykład w klasycznym radiu, aby zapewnić pełną komunikację w grupie 10 osób, nadajnik każdego abonenta musi „dostać się” do drugiego 9. W przeciwnym razie każda para abonentów ryzykuje pozostawienie bez łączności. Ten problem rozwiązuje się po prostu - instalując przemiennik na określonym obszarze zasięgu. Jednak takie podejście nie jest pozbawione wad. Taka organizacja komunikacji zakłada, że ​​podczas gdy „jeden mówi, inni milczą”, a więc w obszarze objętym zasięgiem przemiennik automatycznie zabiera część czasu na antenie, jednocześnie zmniejszając ogólną przepustowość kanału. Przy niskim natężeniu ruchu głosowego rozwiązanie to może być akceptowalne, ale przy wzroście natężenia ruchu radiowego takie podejście jest nieskuteczne. Co możemy powiedzieć o transmisji danych, gdzie repeater po prostu „wbije” inne stacje, jeśli w ogóle mogą wejść na antenę. Jak widać, klasyczne radio z komutacją obwodów jest mało przydatne w przypadku nowoczesnych koncepcji „sieciocentrycznych” integracji głosu, danych i wideo. Problem ten rozwiązują sprawdzone metody, takie jak przełączanie pakietów i inteligentne protokoły, takie jak TCP/IP.

Protokoły i ich wpływ

Podstawą samoorganizacji każdej sieci radiowej typu MANET są inteligentne protokoły sterujące. W tym przypadku protokoły rozumiane są jako zbiór reguł semantycznych i predykatów logicznych, które określają model zachowania węzła abonenckiego w sieci radiowej w zależności od konkretnej sytuacji. Ponieważ cały ruch w takiej sieci to małe pakiety z wyraźnym wskazaniem nadawcy i odbiorcy, a każdy abonent jest przekaźnikiem, pojawia się pytanie, jak dokładnie ten pakiet powinien być przetwarzany. Przecież nie można po prostu przekazywać wszystkich pakietów na zasadzie „powtórz wszystko, co słyszę”, jak w klasycznym radiu. Doprowadzi to do tego, że już pierwsza transmisja dowolnego abonenta wywoła lawinowy efekt generowania ruchu, który ostatecznie „zatka” kanał zduplikowanymi pakietami. Tu pojawia się pole do opracowania inteligentnych algorytmów przetwarzania pakietów w zależności od wywoływanego abonenta, tj. protokoły routingu.

Zwyczajowo protokoły routingu dzieli się na proaktywne (tabela), reaktywne (sonda) i ich hybrydy (są też falowe, ale o nich innym razem). We wczesnych dniach sieci mesh próbowano używać standardowego protokołu routingu OSPF. Oczywiście nic z tego nie wyszło. został zaprojektowany do zupełnie innych warunków pracy. Rezultatem była masa prace naukowe, który oferuje dziesiątki protokołów routingu do samoorganizujących się sieci radiowych. Problem polega jednak na tym, że faktycznie opracowane protokoły routingu MANET albo nie są fizycznie zaimplementowane w języku C, albo są skoncentrowane na osiągnięciu optymalnego wykorzystania. zasoby sieciowe w quasi-statycznych warunkach pracy sieci, tj. gdy topologia zmienia się powoli lub nie zmienia się wcale. To ostatnie dotyczy protokołów zorientowanych na tabelę, takich jak OLSR, DSDV, WRP, BATMAN, Babel itp. Jednak protokoły tabelaryczne implikują obecność w tablicach routingu informacji o całej sieci jednocześnie, tj. nieustannie budują trasy do wszystkich znanych im węzłów, niezależnie od tego, czy potrzebujemy tego abonenta, czy nie.

Protokoły sond, takie jak AODV, DSR, SSR, TORA, oferują routing na żądanie, ale nie są w pełni ustandaryzowane. Dodatkowo, ze względu na asymetryczne kanały, routing musi wspierać tryb budowania wielu tras zarówno od miejsca przeznaczenia do odbiorcy, jak i w przeciwnym kierunku. A jest to obsługiwane tylko przez protokoły DSR i TORA.

Dlatego niezwykle istotny jest problem doboru odpowiednich protokołów routingu zapewniających łączność i skalowalność sieci radiowej. Przy złym wyborze stosu protokołów wydajność sieci i jej zdolność do samoorganizacji mogą zostać znacznie zmniejszone, aż do całkowitej odmowy usługi. Z drugiej strony, przy odpowiednim zaprojektowaniu i wdrożeniu, odpowiednie protokoły mogą realizować koncepcję „interakcji zorientowanej na sieć” ze wszystkimi rodzajami ruchu w pełnej krasie.

W tabeli 2 przedstawiono niektóre analogi stacji i ich porównanie. Wszystkie urządzenia w tabeli są elementami realizacji koncepcji sterowania sieciocentrycznego.

Specjaliści ze Stanów Zjednoczonych i Tajlandii opracowali metodę wiernego odwzorowania światowych arcydzieł sztuki za pomocą druku 3D i sztucznej inteligencji. Dzięki takiemu połączeniu możliwe jest odwzorowanie palety barw obrazu jak najbardziej zbliżonej do oryginału. Metoda polega na drukowaniu wielu warstw farbami o różnych kolorach, co pozwala na uzyskanie koloru najbardziej zbliżonego do oryginału dla każdego fragmentu obrazu. Technologia zostanie zaprezentowana na konferencji SIGGRAPH Asia 2018.

W praktyce światowej często stosuje się kopiowanie arcydzieł sztuki światowej. Odbywa się to nie ze względu na jakieś oszustwo, ale po to, aby więcej osób mogło zapoznać się z pracą. Ponadto w ten sposób właściciele dzieł sztuki mogą chronić oryginały przed zniszczeniem.

Zazwyczaj reprodukcje są tworzone przy użyciu precyzyjnych skanerów i drukarek. Jednak możliwości tej techniki są bardzo ograniczone i nie pozwalają w najmniejszym szczególe oddać całego piękna oryginału. Wynika to z kilku niedociągnięć. Na przykład jednym z nich jest to, że powszechnie używane drukarki wykorzystują kombinację czterech kolorów do odtworzenia koloru oryginału, co zmniejsza dokładność kolorów. Ponadto z reguły drukarki tworzą kolorymetryczną, a nie spektralną reprodukcję koloru oryginału, dlatego wydrukowany obraz jest zbliżony do oryginału tylko w określonym oświetleniu referencyjnym.

Na uzyskanie dokładniejszej kopii umożliwia opracowanie naukowców z Massachusetts Institute of Technology – system RePaint, w którym sztuczna inteligencja steruje drukarką 3D i umożliwia przenoszenie oryginalnych kolorów niezależnie od oświetlenia.

Tworzenie reprodukcji tą metodą odbywa się w kilku etapach. Najpierw przeprowadzany jest wysokiej jakości skan oryginału. Następnie system oblicza parametry druku 3D. Ostatnim krokiem jest w rzeczywistości faktyczne wydrukowanie kopii na drukarce 3D. Aby uzyskać najbardziej niezawodne odwzorowanie kolorów na reprodukcjach, inżynierowie stosują specjalną metodę fotografowania. Oryginalne zdjęcie umieszczone na podłożu wykonuje kamera wielospektralna. Podczas skanowania filtr ciekłokrystaliczny przed kamerą zmienia szerokość pasma 10 nm z 420 nm na 720 nm. Jednocześnie aparat wykonuje zdjęcia monochromatyczne, po czym łączy je w jeden obraz, w którym każdemu pikselowi odpowiada 31 wartości widmowych.

Do odtworzenia kopii używana jest drukarka 3D, zdolna do drukowania wielu różnych półprzezroczystych farb warstwa po warstwie. W celu płynnego przejścia między kolorami stosuje się klasyczną metodę tworzenia obrazu rastrowego. Cały proces jest kontrolowany przez dwie sieci neuronowe, z których jedna przewiduje widmo szeregu warstw od różne materiały. Inżynierowie wytrenowali tę sieć neuronową na podstawie drukowanej płytki z wieloma kwadratami wielkości milimetrów, składającej się z różnych kombinacji warstw.

Za pomocą pierwszej sieci neuronowej przeszkolono drugą. Służy do zadania odwrotnego - przewiduje optymalne ułożenie warstw z różnych materiałów dla dostarczonego mu obrazu.

Niestety w tej chwili technologia ma ograniczenia. System jest w stanie wyprodukować reprodukcję nie większą niż pocztówka. Jeśli jednak technologię da się skalować, wówczas muzea będą miały kolejną okazję do zachowania bezcennych oryginałów, pokazując zwiedzającym najdokładniejsze kopie.