Cyfrowy myśliwiec górą


10-01-2021 12:59:41

Klasyczne walki powietrzne, w których pilot wykorzystuje swoje umiejętności, spryt i osiągi oraz uzbrojenie swej maszyny, aby zestrzelić przeciwnika celnym strzałem, należą już do przeszłości. Zmieniły to pociski kierowane, a ostatni odnotowany przypadek takiego pojedynku miał miejsce 32 lata temu, pod koniec wojny iracko-irańskiej, kiedy irański F-4 Phantom zestrzelił z działka o kalibrze 20 mm iracki samolot Su-22.

Ale pamięć pozostaje, a walki powietrzne, nawet te symulowane, w których prawa fizyki zamieniają się w równania działające w komputerze, są uważane za dobry sprawdzian umiejętności szkolonego pilota. Dotyczy to również sytuacji, gdy dany pilot sam w sobie jest programem komputerowym. Tak więc, kiedy Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności, Defense Advanced Research Projects Agency (DARPA), badawcze ramię Pentagonu, rozważała przyszłość walk powietrze-powietrze i rolę sztucznej inteligencji (AI) w tej przyszłości, zaczęło się od podstaw, które sam Witold Urbanowicz, dowódca 303 dywizjonu, mógłby zaakceptować.

W sierpniu przedstawiciele ośmiu zespołów reprezentujących firmy, od dużych producentów uzbrojenia po małe startupy, zebrało się pod auspicjami Johns Hopkins Applied Physics Laboratory (APL) w Laurel, stan Maryland(w USA, na trzydniowym finale testów agencji DARPA, AlphaDogfight. Każdy z nich opracował algorytmy służące do kontrolowania wirtualnego F-16 w symulowanych walkach powietrznych. Najpierw miały one zmierzyć się ze sobą. Potem zwycięzca zmierzył się z człowiekiem.

Piloci na emeryturze?

Kiedy rozpoczęto te testy, wielu ich uczestników było dość sceptycznych co do tego, czy algorytmy AI sprostają temu zadaniu. Ale w rzeczywistości okazało się, że uczyniły zadość wymogom. Zwycięzca, stworzony przez Heron Systems, małą firmę z małego miasta z Kalifornii w stanie Maryland, najpierw „wykosił” swoich siedmiu cyfrowych rywali, a następnie odniósł imponujące zwycięstwo nad człowiekiem, pilotem amerykańskich sił powietrznych, w pięciu stoczonych pojedynkach.

Chociaż praktyka walki powietrznej, tak jak musztra na placu apelowym i orkiestry wojskowe, jest pozostałością po wcześniejszej formie działań wojennych, która nadal służy szczątkowemu celowi, to kolejna faza projektu DARPY (ASA air combat evolution -ewolucji walki powietrznej) będzie wykonana w przyszłości, ponieważ będzie wymagała, aby programy pilotażowe kontrolowały jednocześnie dwa samoloty. Ponadto, te wirtualne samoloty będą uzbrojone w pociski krótkiego zasięgu, a nie w działka. Zwiększa to ryzyko przypadkowego, bratobójczego zestrzelenia, ponieważ pocisk odpalony do niewłaściwego celu będzie za nim podążał nieubłaganie. Późniejsze testy będą jeszcze bardziej realistyczne, z wykorzystaniem pocisków dalekiego zasięgu, użyciem folii zakłócających i flar oraz wymogiem radzenia sobie z uszkodzonymi danymi i opóźnieniami w czasie, typowymi dla prawdziwych informacji radarowych.

Mądry, lecz mało sprytny

Lecz gdy chodzi o rzeczywiste działania, tak jak w filmowym Top Guns. to należy być spokojnym, że nie tyle trzeba zrezygnować z pilotów, ile pomóc im poprzez „redystrybucję obciążenia poznawczego w kokpicie”, jak twierdzą doświadczeni piloci. Teoretycznie wyjęcie pilota z samolotu pozwala nim manewrować bez względu na wpływ dużych sił przeciążeń na podatnych na nie ludzi. Samolot bez załogi łatwiej też traktować jak „mięso armatnie”. Jednak w większości projektów nowych myśliwców nie usunięto z nich kokpitów. Na przykład, oba rywalizujące ze sobą programy europejskie - Tempest pod kierownictwem Wielkiej Brytanii i francusko-niemiecko-hiszpański Future Combat Air System (FCAS) - są obecnie „opcjonalnie załogowe”. Jest tego kilka powodów.

Jednym z nich jest to, że wyeliminowanie pilota nie zapewnia dużych oszczędności. Kokpit oraz różne systemy potrzebne do utrzymania życia i komfortu człowieka na dużych wysokościach - na przykład ciśnienie w kabinie - stanowią tylko 1-2% masy samolotu. Po drugie, nawet systemy AI o wielkiej wirtuozerii mają wady. Zwykle nie są w stanie przekazać w jaki sposób dochodzą do decyzji, co utrudnia zrozumienie, dlaczego popełniły błąd. Są również w wąskim zakresie przeszkolone w zakresie określonych zastosowań i dlatego nie radzą sobie, gdy wykraczają poza granice tego szkolenia lub są w szatnie reagować na „spoofing” (naciąganie, szachrajstwo) ze strony przeciwników.

Przykładem tej braku elastyczności jest to, że w pewnym momencie testów AlphaDogfight organizatorzy wprowadzili pocisk manewrujący, aby zobaczyć, co się stanie. Pociski Cruise podążają wcześniej ustalonymi torami lotu, więc zachowują się prościej niż pilotowane odrzutowce. Piloci AI walczyli z nim, ponieważ, co paradoksalne, pokonali ten pocisk we wcześniejszej rundzie, lecz teraz powinni być szkoleni do bardziej wymagających zagrożeń. Człowiek-pilot nie miałby problemu, lecz pilot AI jest tak inteligentny, jak go wyszkolono.

Odpowiedzialność bezzałogowca

Ma to znaczenie nie tylko w kontekście natychmiastowego sukcesu militarnego. Wielu ekspertów obawia się przyznania zbyt dużej autonomii broni bojowej - zwłaszcza gdy możliwe są ofiary wśród ludności cywilnej. Międzynarodowe prawo humanitarne wymaga, aby wszelkie szkody cywilne spowodowane atakiem były nie więcej niż proporcjonalne do uzyskania oczekiwanej przewagi wojskowej. Sztuczna inteligencja, której trudno byłoby nasycić odpowiednią wiedzą strategiczną i polityczną, może nie być w stanie samodzielnie ocenić, czy atak jest dozwolony. Oczywiście, człowiek mógłby zdalnie pilotować bezzałogowy samolot. Jednak eksperci wątpią, czy łącza komunikacyjne kiedykolwiek będą wystarczająco niezawodne, biorąc pod uwagę „niepewne i zatłoczone środowisko elektromagnetyczne”. W niektórych przypadkach utrata komunikacji to nic wielkiego; samolot może polecieć do domu. W innych jest to niedopuszczalne ryzyko. Na przykład samoloty Future Combat Air System (FCAS) przeznaczone dla sił powietrznych Francji mają przenosić rakiety nuklearne powietrze-ziemia tego państwa.

Dlatego na razie priorytetem jest to, co siły zbrojne nazywają „zespołami załogowymi i bezzałogowymi”. W tym przypadku pilot przekazuje niektóre zadania komputerowi, a innymi zarządza. Na przykład, dzisiejsi piloci nie muszą już ręcznie kierować antenami swych radarów we właściwym kierunku. Ale nadal są zmuszeni aby przyspieszyć lub wykonać zakręt, aby zwiększyć szanse powodzenia ataku. To są zadania, które bardzo dobrze nadają się do przekazania.

Jednym z przykładów takiego przekazania jest Lockheed Martin, amerykański gigant lotniczy. Opracowuje on system unikania pocisków, który może określić, który samolot w formacji kilku samolotów jest celem konkretnego ataku rakietowego i jakie działania unikowe są potrzebne. To jest coś, co obecnie wymaga interpretacji przez człowieka kilku różnych prezentacji danych.

Innym przykładem jest unikanie kolizji z ziemią. W 2018 roku zespół kierowany przez amerykańskie lotnictwo, a także koncern Lockheed Martin, zdobył Collier Trophy, nagrodę za największe osiągnięcie w lotnictwie w Ameryce, za automatyczny system unikania kolizji z obiektami naziemnymi, który przejmuje kontrolę nad samolotem, jeśli grozi mu uderzenie w teren. Takie wypadki, które mogą się zdarzyć, gdy pilot doświadczający poważnych przeciążeń zemdleje, są przyczyną trzech czwartych śmierci pilotów F-16. Jak dotąd system ten uratował życie dziesięciu takich pilotów.

Interakcja człowieka ze sztuczną inteligencją

Ostatecznie DARPA planuje zmierzyć ze sobą zespoły złożone z dwóch samolotów, z których każdy będzie kontrolowany wspólnie przez człowieka i sztuczną inteligencję. Wiele sił powietrznych ma nadzieję, że pewnego dnia jeden człowiek-pilot może nawet zaaranżować, choć nie mikrozarządzać, całą flotą towarzyszących mu bezzałogowych samolotów.

Aby to zadziałało, interakcja między człowiekiem a maszyną musi być płynna. Tutaj, jak zauważają psycholodzy zajmujący się czynnikami ludzkimi w BAE, branża gier wideo i programy opieki cyfrowej, ( konwergencji technologii cyfrowych ze zdrowiem, opieką zdrowotną, życiem i społeczeństwem) mają swój wkład do wniesienia. Korzystają z niej inżynierowie programu brytyjskiego samolotu Tempest, który ma dołączyć do brytyjskich sił powietrznych RAF w 2035 roku, pracując nad „autonomią adaptacyjną”, w której czujniki mierzą pocenie się pilota, tętno, aktywność mózgu i ruch oczu, aby ocenić, czy pilot jest przeciążony pracą i potrzebuje pomocy. Podejście to zostało przetestowane w lekkich samolotach, a dalsze testy zostaną przeprowadzone w przyszłym roku na, myśliwcach Typhoon produkowanych przez europejskie konsorcjum, w skład którego wchodzi BAE.

Zespół psychologów BAE eksperymentuje również z nowatorskimi sposobami dostarczania informacji pilotowi, od kanału podobnego do Twittera po antropomorficznego awatara. „Ludzie myślą, że opcja awatara może być trochę śmieszna” – mówią psycholodzy, którzy przywołuje widmo Clippy, słynnego, irytującego, gadającego spinacza do papieru, który przemawiał do użytkowników pakietu Microsoft Office w latach 1900. i 2000. Należy tu wspomnieć o informacjach, które otrzymujemy od siebie nawzajem. Czy uspokajający głos lub uśmiechnięta twarz mogą nam pomóc?

Przekonanie ludzi do zaufania maszynom nie jest formalnością. Należy tu wskazać przykład zautomatyzowanej usługi informacji o pogodzie, wprowadzonej w samolotach 25 lat temu. Ze strony pilotów testowych pojawił się pewien opór, jeśli chodzi o to, czy rzeczywiście mogą ufać tym informacjom, w przeciwieństwie do łączności radiowej z kontrolą ruchu lotniczego i rozmowy z człowiekiem. Zrzeczenie się większej części kontroli wymaga przełamania takich psychologicznych barier.

Jednym z celów AlphaDogfight, było właśnie dokonanie tego poprzez zebranie pilotów razem z badaczami AI i umożliwienie im interakcji. Starsi piloci, którzy w czasie lotu, kontrolowali antenami radaru… postrzegają ten rodzaj technologii jako zagrożenie – mówią psycholodzy. Natomiast młodsze pokolenie, cyfrowi użytkownicy, którzy działają w sieci internetowej, ufają tym autonomicznym systemom. To dobra wiadomość dla DARPA; ale może mniej dla starszych pilotów.

Maciej Kamyk

Komentuje Waldemar Rukść

eNOT.pl - Portal Naczelnej Organizacji Technicznej | eNOT.pl