Człowiek kontra maszyna: walka o bezpieczeństwo w świecie AI

Człowiek kontra maszyna: walka o bezpieczeństwo w świecie AI

Człowiek kontra maszyna: walka o bezpieczeństwo w świecie AI

Przejmowanie sterów z maszyn

Dawno, dawno temu, gdy komputery ledwie zaczynały pojawiać się w naszych domach i biurach, niewielu z nas mogło sobie wyobrazić, jak potężne narzędzie technologiczne będzie to kiedyś. Dziś sztuczna inteligencja (AI) wkroczyła do niemal każdej sfery naszego życia – od codziennych asystentów po wyrafinowane systemy wojskowe. Ale jak to często bywa z nową, przełomową technologią, wraz z możliwościami napływają też obawy. Czy my, ludzie, wciąż mamy kontrolę nad maszynami, które sami stworzyliśmy?

Ostatnio Armia Stanów Zjednoczonych przeprowadziła pierwsze tego typu ćwiczenie, w którym pilot człowiek starł się z samolotem sterowanym przez AI. Dwa myśliwce F-16 zmierzyły się nad bazą sił powietrznych USA w Kalifornii, lecąc z prędkością około 2000 kilometrów na godzinę – niczym w prawdziwych warunkach bojowych. To był przełomowy moment, w którym człowiek stanął oko w oko z maszyna sterowaną przez zaawansowane algorytmy.

Chociaż Agencja ds. Zaawansowanych Projektów Obronnych, czyli DARPA, nie ujawniła, która maszyna wyszła zwycięsko z tej walki, sama fakt jej przeprowadzenia pokazuje, jak szybko AI wkracza na pola bitwy przyszłości. Oficer James Valpiani, szkolący pilotów amerykańskich sił powietrznych, podkreślił, że takie starcia to świetna metoda, by sprawdzić możliwości tej technologii. Możemy się tylko domyślać, że wyniki tego testu będą miały kluczowe znaczenie dla przyszłego kształtu sił zbrojnych i sposobów prowadzenia wojen.

AI pełznie we wszystkie sfery

To tylko jeden z przykładów militarnego zastosowania sztucznej inteligencji. Ale AI pełznie już w zasadzie we wszystkie sfery naszego życia – od codziennych czynności po kluczowe decyzje strategiczne. Płk dr inż. Rafał Kasprzyk, zastępca dziekana Wydziału Cybernetyki Wojskowej Akademii Technicznej, podkreśla, że sztuczna inteligencja wkroczyła już do każdej domeny prowadzenia działań zbrojnych – na lądzie, morzu, w powietrzu, w cyberprzestrzeni, a nawet w przestrzeni kosmicznej.

AI jest już wykorzystywana w procesie dowodzenia – od wspomagania decyzji na poziomie taktycznym, poprzez operacyjny, aż po strategiczny. Maszyny potrafią wygenerować różne warianty działań z rekomendacjami najlepszego rozwiązania, znacznie wyprzedzając ludzkie możliwości. Sztuczna inteligencja wspomaga też rozpoznanie, fuzję danych z rozmaitych czujników, a nawet monitorowanie kondycji żołnierzy.

Logistyka i zaopatrzenie to kolejny obszar, gdzie AI może odnieść spektakularne sukcesy. Algorytmy są w stanie zaplanować cały proces transportu i serwisowania sprzętu, przewidując z dużą dokładnością, kiedy konieczna będzie wymiana części czy płynów eksploatacyjnych. To szczególnie istotne w przypadku wojsk rozmieszczonych na całym globie, takich jak siły zbrojne Stanów Zjednoczonych.

Ale najbardziej kontrowersyjnym obszarem zastosowań AI jest sfera rażenia – czyli decydowanie o użyciu broni. Płk Kasprzyk podkreśla, że jak dotąd żadne państwo oficjalnie nie buduje całkowicie autonomicznych systemów uzbrojenia, w których to maszyna sama podejmowałaby decyzje o otwarciu ognia. Ostateczna decyzja wciąż należy do człowieka. Choć niektóre kraje, jak Rosja czy Chiny, mogą być w tej kwestii bardziej ryzykowne.

Kiedy AI zacznie strzelać samodzielnie?

Z jednej strony istnieje więc podejście human in the loop, gdzie człowiek podejmuje wszystkie kluczowe decyzje, a AI jedynie doradza. Z drugiej – human out of the loop, w którym to maszyny sterowane przez algorytmy AI toczyłyby ze sobą walkę bez udziału ludzi. Trzecia droga to human on the loop – gdzie człowiek jedynie nadzoruje pracę AI, mogąc w każdej chwili zareagować.

Eksperci ostrzegają jednak, że nawet w tym ostatnim przypadku nie ma gwarancji, że uda się zawsze powstrzymać samodzielne działania maszyn. Wystarczy przypomnieć sobie scenę z kultowego Terminatora, gdy próbowano wyłączyć Skynet, a okazało się to niemożliwe. A Stephen Hawking jeszcze przed śmiercią pytał retorycznie: “A co jeśli sztuczna inteligencja przewidzi, że ktoś będzie chciał ją wyłączyć?”.

Bez wątpienia, maszyny sterowane przez AI są coraz bliższe momentu, w którym będą w stanie samodzielnie podejmować decyzje o użyciu siły. Płk Kasprzyk wskazuje, że od strony czysto technicznej to już całkiem realne. Problem w tym, że takie w pełni autonomiczne systemy musiałyby poradzić sobie nie tylko z łatwymi zadaniami, jak przemieszczanie się po prostych, utwardzonych drogach, ale także z nieprzewidywalnym terenem pola walki. A to stanowi ogromne wyzwanie nawet dla najbardziej zaawansowanych algorytmów.

Naukowiec przytacza tu analogię do autonomicznych samochodów, które radzą sobie wyśmienicie na dobrze oznakowanych drogach, ale wpadają w kłopoty, gdy napotkają nieoczekiwane przeszkody. Podobnie autonomiczne systemy uzbrojenia mogłyby sobie nie poradzić z “inteligentnymi atakami”, które celowo wprowadzają je w błąd. Dlatego wciąż kluczowa pozostaje rola człowieka, który musi być w pętli sterowania.

Walki w cyberprzestrzeni

Choć broń sterowana przez AI wciąż jest w fazie rozwoju, to już dziś sztuczna inteligencja odgrywa kluczową rolę w zupełnie innej dziedzinie działań wojennych – cyberprzestrzeni. Płk Kasprzyk podkreśla, że AI jest wykorzystywana zarówno do obrony przed cyberatakami, jak i do atakowania systemów przeciwnika.

Z jednej strony algorytmy AI pomagają analizować duże zbiory danych, by wykrywać luki i słabe punkty we własnych systemach informatycznych. Z drugiej – mogą być użyte do przeprowadzania precyzyjnych ataków na infrastrukturę krytyczną wroga, na przykład wyłączając zdalnie elektrownie, oczyszczalnie ścieków czy destabilizując system finansowy.

Sztuczna inteligencja otwiera też nowe możliwości w tzw. operacjach informacyjnych. Algorytmy potrafią badać nastroje społeczne, wywierać wpływ na opinie i przekonania ludzi, a nawet manipulować wynikami wyborów. Jak się okazuje, wystarczy umiejętnie dobierać treści, by skłonić zwolenników jednej partii do pójścia na wybory, a innych do pozostania w domach.

Dlatego coraz głośniej mówi się o konieczności wypracowania nowych ram etycznych i prawnych, które pozwolą kontrolować rozwój AI, szczególnie w obszarach o kluczowym znaczeniu dla bezpieczeństwa. Choć technologia ta stwarza ogromne możliwości, to jej niekontrolowany rozwój niesie ze sobą realne zagrożenia.

Człowiek kontra maszyna

Niepokój budzi fakt, że obecnie aż 90 proc. modeli opartych na AI jest opracowywanych w prywatnych firmach, które często kierują się własnymi interesami, nie zawsze zbieżnymi z dobrem społecznym. Jednocześnie systemy te mają coraz większy wpływ na nasze życie.

Dlatego tak ważne jest, by społeczeństwo aktywnie włączało się w debatę na temat etycznych i społecznych aspektów rozwoju sztucznej inteligencji. Bez tego grozi nam bowiem scenariusz, w którym to maszyny zaczną decydować o naszym losie. Jak bowiem przestrzegał Stephen Hawking, nawet jeśli uda nam się powstrzymać AI przed nieokiełznanym rozwojem, to i tak może się okazać, że nie będziemy w stanie z nią rywalizować.

Nie oznacza to jednak, że mamy już teraz biciem na alarm. Jak przekonuje dr inż. Jan Kocoń z Politechniki Wrocławskiej, AI to narzędzie – tak samo jak nóż, który można użyć do krojenia chleba lub zranienia kogoś. Kluczowe jest, by jej rozwój przebiegał w zgodzie z zasadami etycznymi i pod społeczną kontrolą.

Dlatego należy z nadzieją, ale i odpowiedzialnością, przyglądać się temu, jak sztuczna inteligencja wkracza w coraz więcej sfer naszego życia. Tylko wtedy mamy szansę, by to my, ludzie, wciąż trzymali ster w swoich rękach.

Nasze inne poradniki

Chcemy być Twoim partnerem w tworzeniu strony internetowej, a Ty chcesz mieć profesjonalnie zaprojektowaną witrynę?

Zrobimy to dla Ciebie!