Przyszłością sztucznej inteligencji jest wojna… i wyginięcie ludzi jako szkody uboczne
Autor: Michael T. Klare za pośrednictwem TomDispatch.com,
Świat, w którym maszyny zarządzane przez sztuczną inteligencję (AI) systematycznie zastępują ludzi w większości funkcji biznesowych, przemysłowych i zawodowych, jest przerażający do wyobrażenia. W końcu, jak ostrzegają nas wybitni informatycy, systemy zarządzane przez sztuczną inteligencję są podatne na krytyczne błędy i niewytłumaczalne „halucynacje”, które mogą mieć katastrofalne skutki.
Ale jest jeszcze bardziej niebezpieczny scenariusz, jaki można sobie wyobrazić na podstawie rozprzestrzeniania się superinteligentnych maszyn: możliwość, że te nieludzkie istoty mogą walczyć ze sobą, niszcząc w ten sposób całe ludzkie życie.
Pogląd, że superinteligentne komputery mogą wpadać w amok i mordować ludzi, od dawna jest podstawą popkultury. W proroczym filmie „Gry wojenne” z 1983 roku superkomputer znany jako WOPR (od odpowiedzi na plan operacji wojennej i, co nie jest zaskakujące, wymawiane jako „whopper”) prawie prowokuje katastrofalną wojnę nuklearną między Stanami Zjednoczonymi a Związkiem Radzieckim, zanim zostanie unieruchomiony przez nastoletniego haker (grany przez Matthew Brodericka). Seria filmów „ Terminator ”, zapoczątkowana oryginalnym filmem z 1984 roku, podobnie przewidywała samoświadomy superkomputer o nazwie „Skynet”, który podobnie jak WOPR został zaprojektowany do kontrolowania amerykańskiej broni nuklearnej, ale zamiast tego wybiera zniszczenie ludzkości, postrzegając nas jako zagrożenie do jego istnienia.
Choć kiedyś ograniczała się do sfery science fiction, koncepcja superkomputerów zabijających ludzi stała się teraz wyraźną możliwością w bardzo realnym świecie niedalekiej przyszłości. Oprócz opracowywania szerokiej gamy „ autonomicznych ” lub zrobotyzowanych urządzeń bojowych, główne potęgi wojskowe spieszą się również z tworzeniem zautomatyzowanych systemów podejmowania decyzji na polu bitwy lub czegoś, co można by nazwać „ generałami robotów” .”. W wojnach w niezbyt odległej przyszłości takie systemy napędzane sztuczną inteligencją mogłyby zostać rozmieszczone w celu wydawania rozkazów bojowych amerykańskim żołnierzom, dyktując, gdzie, kiedy i jak zabijają wrogie wojska lub przyjmują ogień od przeciwników. W niektórych scenariuszach decydenci-roboty mogą nawet przejąć kontrolę nad amerykańską bronią atomową, potencjalnie umożliwiając im rozpętanie wojny nuklearnej, która doprowadzi do upadku ludzkości.
A teraz weź oddech na chwilę. Instalacja takiego systemu dowodzenia i kontroli (C2) opartego na sztucznej inteligencji może wydawać się odległą możliwością. Niemniej jednak Departament Obrony Stanów Zjednoczonych ciężko pracuje nad rozwojem wymaganego sprzętu i oprogramowania w systematyczny, coraz szybszy sposób. Na przykład w przedłożonym budżecie na 2023 r. Siły Powietrzne zażądały 231 mln USD na opracowanie zaawansowanego systemu zarządzania polem bitwy (ABMS), złożonej sieci czujników i komputerów obsługujących sztuczną inteligencję, zaprojektowanych do gromadzenia i interpretowania danych o operacjach wroga oraz zapewniania pilotom i wojsk lądowych z menu optymalnych opcji ataku. W miarę rozwoju technologii system będzie zdolny wysyłania instrukcji „ognia” bezpośrednio do „strzelców”, w dużej mierze z pominięciem kontroli człowieka.
„Narzędzie do wymiany danych między maszynami, które zapewnia opcje odstraszania lub na rampie [wojskowy pokaz siły] lub wczesnej walki”, tak Will Roper, zastępca sekretarza Sił Powietrznych ds. Przejęć, technologia i logistyka opisali system ABMS w wywiadzie z 2020 roku. Sugerując, że „musimy zmienić nazwę” w miarę ewolucji systemu, Roper dodał: „Myślę, że Skynet jest wyłączony, tak bardzo chciałbym to zrobić jako rzecz science-fiction. Po prostu nie sądzę, żebyśmy mogli tam pojechać.
I chociaż on nie może tam pojechać, reszta z nas może rzeczywiście tam się udać.
Pamiętaj, to dopiero początek. W rzeczywistości ABMS Sił Powietrznych ma stanowić jądro większej konstelacji czujników i komputerów, które połączą wszystkie siły bojowe USA, Joint All-Domain Command-and-Control System (JADC2, wymawiane jako „Jad-C-two ”). „JADC2 ma na celu umożliwienie dowódcom podejmowania lepszych decyzji poprzez zbieranie danych z wielu czujników, przetwarzanie danych za pomocą algorytmów sztucznej inteligencji w celu identyfikacji celów, a następnie rekomendowanie optymalnej broni… do walki z celem”, poinformowała w 2022 r. Kongresowa Służba Badawcza .
Sztuczna inteligencja i wyzwalacz nuklearny
Początkowo JADC2 będzie przeznaczony do koordynowania działań bojowych między „konwencjonalnymi” lub niejądrowymi siłami amerykańskimi. Jednak ostatecznie oczekuje się, że połączy się z nuklearnymi systemami dowodzenia, kontroli i komunikacji (NC3) Pentagonu, potencjalnie dając komputerom znaczną kontrolę nad wykorzystaniem amerykańskiego arsenału nuklearnego. „JADC2 i NC3 są ze sobą powiązane”, stwierdził generał John E. Hyten, wiceprzewodniczący Kolegium Połączonych Szefów Sztabów, w wywiadzie z 2020 r. W rezultacie dodał typowym pentagonem: „NC3 musi poinformować JADC2, a JADC2 musi poinformować NC3”.
Nie trzeba wielkiej wyobraźni, aby wyobrazić sobie czas w niezbyt odległej przyszłości, kiedy pewnego rodzaju kryzys — na przykład starcie militarne między Stanami Zjednoczonymi a Chinami na Morzu Południowochińskim lub w pobliżu Tajwanu — spowoduje coraz bardziej zaciekłe walki między wrogimi siłami powietrznymi. i siły morskie. Wyobraź sobie więc, że JADC2 nakazuje intensywne bombardowanie wrogich baz i systemów dowodzenia w samych Chinach, wywołując wzajemne ataki na obiekty amerykańskie i błyskawiczną decyzję JADC2 o odwecie taktyczną bronią nuklearną, wywołując od dawna budzący strach nuklearny holokaust.
Możliwość, że tego rodzaju koszmarne scenariusze mogą doprowadzić do przypadkowego lub niezamierzonego wybuchu wojny nuklearnej, od dawna niepokoi analityków ze społeczności zajmującej się kontrolą zbrojeń. Ale rosnąca automatyzacja wojskowych systemów C2 wywołała niepokój nie tylko wśród nich, ale także wśród wyższych urzędników bezpieczeństwa narodowego.
Już w 2019 roku, kiedy zapytałem generała porucznika Jacka Shanahana, ówczesnego dyrektora Połączonego Centrum Sztucznej Inteligencji w Pentagonie, o tak ryzykowną możliwość, odpowiedział: „Nie znajdziesz większego zwolennika integracji zdolności AI w Departamencie ds. Obrona, ale jest jeden obszar, w którym się zatrzymuję, a dotyczy on dowodzenia i kontroli jądrowej. To „ostateczna decyzja człowieka, którą należy podjąć”, dlatego „musimy być bardzo ostrożni”. Dodał, że biorąc pod uwagę „niedojrzałość” technologii, potrzebujemy „dużo czasu na przetestowanie i ocenę [przed zastosowaniem sztucznej inteligencji w NC3]”.
Od tamtej pory, pomimo takich ostrzeżeń, Pentagon ścigał się z rozwojem zautomatyzowanych systemów C2. W przedłożonym budżecie na 2024 r. Departament Obrony zażądał 1,4 miliarda dolarów na JADC2 w celu „przekształcenia zdolności bojowych poprzez dostarczanie przewagi informacyjnej z szybkością trafności we wszystkich domenach i partnerach”. O o! A potem zażądał kolejnych 1,8 miliarda dolarów na inne rodzaje badań AI związanych z wojskiem.
Urzędnicy Pentagonu przyznają, że minie trochę czasu, zanim generałowie-roboty będą dowodzić ogromną liczbą żołnierzy amerykańskich (i autonomiczną bronią) w bitwie, ale uruchomili już kilka projektów mających na celu przetestowanie i udoskonalenie właśnie takich powiązań. Jednym z przykładów jest projekt konwergencji armii , obejmującego serię ćwiczeń terenowych zaprojektowanych w celu sprawdzenia poprawności systemów składowych ABMS i JADC2. Na przykład w teście przeprowadzonym w sierpniu 2020 r. na poligonie Yuma w Arizonie armia wykorzystała różne czujniki powietrzne i naziemne do śledzenia symulowanych sił wroga, a następnie przetwarzała te dane za pomocą komputerów obsługujących sztuczną inteligencję w Joint Base Lewis McChord w stanie Waszyngton. Te komputery z kolei wydawały instrukcje ogniowe dla artylerii naziemnej w Yumie. „Cała ta sekwencja została rzekomo wykonana w ciągu 20 sekund” — donosiła później Kongresowa Służba Badawcza .
Mniej wiadomo o ekwiwalencie sztucznej inteligencji Marynarki Wojennej, „Project Overmatch”, ponieważ wiele aspektów jego programowania było utrzymywanych w tajemnicy. Według admirała Michaela Gildaya, szefa operacji morskich, Overmatch ma „ umożliwić marynarce, która roi się od morza, dostarczając zsynchronizowane śmiercionośne i nieśmiercionośne efekty z bliska i daleka, z każdej osi i każdej domeny”. Niewiele więcej ujawniono na temat projektu.
„Wojny błyskawiczne” i wymieranie ludzkości
Pomimo całej tajemnicy otaczającej te projekty, można myśleć o ABMS, JADC2, Convergence i Overmatch jako o elementach budulcowych przyszłej mega-sieci superkomputerów przypominającej Skynet, zaprojektowanej do dowodzenia wszystkimi siłami amerykańskimi, w tym siłami nuklearnymi, w zbrojnych walka. Im bardziej Pentagon porusza się w tym kierunku, tym bardziej zbliżamy się do czasu, w którym sztuczna inteligencja będzie miała władzę nad wszystkimi amerykańskimi żołnierzami wraz z siłami przeciwnika i wszystkimi cywilami złapanymi w krzyżowy ogień.
Taka perspektywa powinna być wystarczającym powodem do niepokoju. Na początek rozważ ryzyko błędów i błędnych obliczeń algorytmów w sercu takich systemów. Jak ostrzegają nas najlepsi informatycy, algorytmy te są zdolne do wyjątkowo niewytłumaczalnych błędów i, by użyć terminu AI, „halucynacji” — czyli pozornie rozsądnych wyników, które są całkowicie iluzoryczne. W tych okolicznościach nietrudno sobie wyobrazić, że takie komputery „mają halucynacje” przed nieuchronnym atakiem wroga i rozpoczynają wojnę, której inaczej można by uniknąć.
I nie jest to najgorsze z niebezpieczeństw, które należy wziąć pod uwagę. W końcu istnieje oczywiste prawdopodobieństwo, że przeciwnicy Ameryki podobnie wyposażą swoje siły w generałów-robotów. Innymi słowy, przyszłe wojny będą prawdopodobnie toczone przez jeden zestaw systemów sztucznej inteligencji przeciwko drugiemu, oba powiązane z bronią nuklearną, z całkowicie nieprzewidywalnymi – ale potencjalnie katastrofalnymi – skutkami.
Niewiele wiadomo (przynajmniej ze źródeł publicznych) o rosyjskich i chińskich wysiłkach zmierzających do zautomatyzowania ich wojskowych systemów dowodzenia i kontroli, ale uważa się, że oba kraje rozwijają sieci porównywalne z JADC2 Pentagonu. Już w 2014 roku Rosja zainaugurowała Narodowe Centrum Kontroli Obrony (NDCC) w Moskwie, scentralizowane stanowisko dowodzenia do oceny globalnych zagrożeń i inicjowania wszelkich niezbędnych działań wojskowych, zarówno o charakterze niejądrowym, jak i nuklearnym. Podobnie jak JADC2, NDCC ma na celu zbieranie informacji o ruchach wroga z wielu źródeł i dostarczanie starszym oficerom wskazówek dotyczących możliwych reakcji.
Mówi się, że Chiny realizują jeszcze bardziej skomplikowane, choć podobne przedsięwzięcie pod nazwą „Multi-Domain Precision Warfare” (MDPW). Zgodnie z raportem Pentagonu z 2022 r. na temat rozwoju chińskiej armii, jego wojsko, Armia Ludowo-Wyzwoleńcza, jest szkolona i wyposażana do korzystania z czujników i sieci komputerowych obsługujących sztuczną inteligencję, aby „szybko identyfikować kluczowe luki w systemie operacyjnym USA, a następnie łączyć wspólne siły w całym domen, aby przeprowadzić precyzyjne ataki na te luki”.
Wyobraź sobie zatem przyszłą wojnę między USA a Rosją lub Chinami (lub obydwoma), w której JADC2 dowodzi wszystkimi siłami amerykańskimi, podczas gdy rosyjskie NDCC i chińskie MDPW dowodzą siłami tych krajów. Weź również pod uwagę, że wszystkie trzy systemy mogą doświadczać błędów i halucynacji. Jak bezpieczni będą ludzie, gdy generałowie robotów zdecydują, że nadszedł czas, aby „wygrać” wojnę, bombardując wrogów?
Jeśli wydaje ci się to dziwaczny scenariusz, pomyśl jeszcze raz, przynajmniej według kierownictwa Komisji Bezpieczeństwa Narodowego ds. Sztucznej Inteligencji, przedsiębiorstwa upoważnionego przez Kongres, któremu przewodniczyli Eric Schmidt, były szef Google, i Robert Work, były zastępca sekretarza obrony. „Chociaż Komisja uważa, że odpowiednio zaprojektowane, przetestowane i wykorzystywane autonomiczne systemy uzbrojenia z obsługą sztucznej inteligencji przyniosą znaczne korzyści wojskowe, a nawet humanitarne, niekontrolowane globalne użycie takich systemów potencjalnie grozi niezamierzoną eskalacją konfliktu i niestabilnością kryzysową” – potwierdzono w swoim raporcie końcowym. Stwierdzono, że takie niebezpieczeństwa mogą powstać „z powodu trudnych i nieprzetestowanych złożoności interakcji między systemami uzbrojenia opartymi na sztucznej inteligencji i autonomicznymi systemami uzbrojenia na polu bitwy” — to znaczy, gdy sztuczna inteligencja walczy z sztuczną inteligencją.
Choć może się to wydawać skrajnym scenariuszem, jest całkiem możliwe, że przeciwstawne systemy sztucznej inteligencji mogą wywołać katastrofalną „flash war” — wojskowy odpowiednik „błyskawicznej katastrofy” na Wall Street, kiedy ogromne transakcje przeprowadzane przez super wyrafinowane algorytmy handlowe wywołują panikę przed sprzedażą. ludzie mogą przywrócić porządek. W niesławnym „Flash Crash” z 6 maja 2010 r. handel sterowany komputerowo spowodował 10% spadek wartości giełdy. Według Paul Scharre z Center for a New American Security, który jako pierwszy badał to zjawisko, „militarny odpowiednik takich kryzysów” na Wall Street pojawiałby się, gdy zautomatyzowane systemy dowodzenia przeciwnych sił „zostały uwięzione w kaskadzie eskalacji starć”. Zauważył, że w takiej sytuacji „autonomiczna broń może w jednej chwili doprowadzić do przypadkowej śmierci i zniszczenia na katastrofalną skalę”.
Obecnie praktycznie nie ma środków zapobiegających przyszłej katastrofie tego rodzaju, a nawet rozmów między głównymi mocarstwami w celu opracowania takich środków. Jednak, jak zauważyła Narodowa Komisja Bezpieczeństwa ds. Sztucznej Inteligencji, takie środki kontroli kryzysowej są pilnie potrzebne, aby zintegrować „zautomatyzowane wyzwalacze eskalacji” z takimi systemami, „które zapobiegłyby automatycznej eskalacji konfliktu”. W przeciwnym razie jakaś katastrofalna wersja III wojny światowej wydaje się aż nazbyt możliwa. Biorąc pod uwagę niebezpieczną niedojrzałość takiej technologii i niechęć Pekinu, Moskwy i Waszyngtonu do nałożenia jakichkolwiek ograniczeń na uzbrojenie sztucznej inteligencji, dzień, w którym maszyny będą mogły zdecydować się na unicestwienie nas, może nadejść znacznie wcześniej, niż sobie wyobrażamy, a wyginięcie ludzkości może być szkody uboczne takiej przyszłej wojny.
* * *
Śledź TomDispatch na Twitterze i dołącz do nas na Facebooku . Sprawdź najnowsze Dispatch Books, nową dystopijną powieść Johna Feffera, Songlands (ostatnia z jego serii Splinterlands), powieść Beverly Gologorsky Every Body Has a Story oraz A Nation Unmade by War Toma Engelhardta , a także In the Shadows Alfreda McCoya of the American Century: The Rise and Decline of US Global Power , Johna Dowera The Violent American Century: War and Terror Since World War II oraz Ann Jones They Were Soldiers: How the Wounded Return from America’s Wars: The Untold Story .
Michael T. Klare, stały bywalec TomDispatch , jest emerytowanym profesorem studiów nad pokojem i bezpieczeństwem na pięciu uczelniach w Hampshire College oraz starszym członkiem wizytującym Stowarzyszenia Kontroli Broni. Jest autorem 15 książek, z których najnowsza to All Hell Breaking Loose: The Pentagon’s Perspective on Climate Change . Jest założycielem Komitetu ds. Rozsądnej Polityki USA-Chiny .
Link źródłowy https://www.zerohedge.com/geopolitical/future-ai-war-and-human-extinction-collateral-damage