https://sellio.store/pl/page/24/     https://fashionetta.org/pl/page/24/     https://home-partner.org/pl/page/24/     https://car-paradise.org/pl/page/24/     https://car-accessories.net/pl/page/24/     https://modeo-shop.com/pl/page/24/     https://wibratory.net/pl/page/24/     https://etui-empire.com/pl/page/24/     https://e-papierosy.org/pl/page/24/     https://ero-land.org/pl/page/24/     https://lampy-sklep.com/pl/page/24/     https://desteo.org/pl/page/24/     https://shopara.org/pl/page/24/     https://shopme-online.org/pl/page/24/     https://shopinio.org/pl/page/24/     https://shopopolis.org/pl/page/24/     https://shoporama.org/pl/page/24/     https://desuto.org/pl/page/24/     https://shopsy-online.org/pl/page/24/     https://e-shopsy.org/pl/page/24/     https://vandershop.net/pl/page/24/    https://car-paradise.org/pl/page/24/    https://womens-health.info/    https://travel-ing.info/en/

int-news.info

Kolejna witryna oparta na WordPressie

News

Uderzenie w książki: Sowieci powierzyli kiedyś Sztucznej Inteligencji zadanie wzajemnej destrukcji

Ledwie miesiąc po nieudanej inwazji na Ukrainę Rosja pobrzękuje nuklearną szabelką, grożąc drastyczną eskalacją regionalnego konfliktu w kierunku wojny światowej. Ale Rosjanom nie są obce nuklearne sztuczki. W poniższym fragmencie najnowszej książki Bena Buchanana i Andrew Imbrie’ego możemy się przekonać, jak blisko było ludzkości do atomowego holokaustu w 1983 r. i dlaczego rosnąca zależność od automatyzacji – po obu stronach żelaznej kurtyny – tylko zwiększyła prawdopodobieństwo przypadkowego wybuchu. The New Fire przygląda się szybko rosnącej roli zautomatyzowanych systemów uczenia maszynowego w obronie narodowej oraz temu, jak coraz bardziej wszechobecne technologie sztucznej inteligencji (analizowane przez pryzmat „danych, algorytmów i mocy obliczeniowej”) zmieniają sposób, w jaki narody prowadzą wojny zarówno w kraju, jak i za granicą.

MIT Press

Fragment książki The New Fire: War, Peacem, and Democracy in the Age of AI autorstwa Andrew Imbrie i Bena Buchanana. Wydane przez MIT Press. Copyright © 2021 by Andrew Imbrie i Ben Buchanan. Wszelkie prawa zastrzeżone.

MARTWA RĘKA

Gdy jesienią 1983 roku napięcie między Stanami Zjednoczonymi a Związkiem Radzieckim osiągnęło apogeum, rozpoczęła się wojna nuklearna. Przynajmniej tak głosiły alarmy w bunkrze w Moskwie, gdzie dyżurował podpułkownik Stanisław Pietrow.

W bunkrze zawyły syreny, a na ekranie pojawił się napis „start”. Zbliżał się pocisk. Petrov, niepewny, czy to błąd, nie zareagował natychmiast. Następnie system zgłosił dwa kolejne pociski, a potem jeszcze dwa. Na ekranie pojawił się napis „atak rakietowy”. Komputer z najwyższym stopniem pewności poinformował, że trwa atak jądrowy.

Technologia zrobiła swoje i wszystko było teraz w rękach Petrova. Zgłoszenie takiego ataku oznaczało początek wojny jądrowej, ponieważ Związek Radziecki z pewnością wystrzeliłby w odwecie własne rakiety. Każda sekunda zwlekania zabierała cenny czas” – powiedział później Petrow.

„Przez 15 sekund byliśmy w stanie szoku” – wspominał. Czuł się tak, jakby siedział na gorącej patelni. Po szybkim zebraniu jak największej ilości informacji z innych stacji ocenił, że istnieje 50 procent szans na to, że szykuje się atak. Radziecki protokół wojskowy nakazywał mu oprzeć swoją decyzję na odczytach komputerowych, które mówiły, że atak jest niezaprzeczalny. Po długich namysłach Pietrow zadzwonił do oficera dyżurnego, by przekazać mu wiadomość: system wczesnego ostrzegania działa nieprawidłowo. Nie było żadnego ataku – powiedział. To był rzut atomową kostką.

Dwadzieścia trzy minuty po alarmie – czas, jaki zajęłoby rakiecie uderzenie w Moskwę – wiedział, że to on miał rację, a komputery się myliły. „To była taka ulga” – powiedział później. Raporty po akcji ujawniły, że odbicie słońca od przelatującej chmury zmyliło satelitarny system ostrzegania. Dzięki decyzji Petrova, który zlekceważył maszynę i nie zastosował się do protokołu, ludzkość przeżyła kolejny dzień.

Działania Petrova wymagały nadzwyczajnego osądu i odwagi, a to, że tej nocy to on podejmował decyzje, było tylko czystym szczęściem. Większość jego kolegów, Petrovrov uważał, że rozpoczęłoby to wojnę. Był jedynym oficerem na tym posterunku, który miał wykształcenie cywilne, a nie wojskowe, i który był gotów wykazać się większą niezależnością. „Moi koledzy byli zawodowymi żołnierzami; nauczono ich wydawać i wykonywać rozkazy” – powiedział. Człowiek w pętli – ten konkretny człowiek – zrobił różnicę”.

Historia Petrova ujawnia trzy wątki: postrzeganą potrzebę szybkości w dowodzeniu i kontroli sił jądrowych, aby zyskać czas dla decydentów; powab automatyzacji jako sposobu na osiągnięcie tej szybkości; oraz niebezpieczną skłonność tych zautomatyzowanych systemów do awarii. Te trzy zagadnienia przez dziesięciolecia stanowiły sedno radzenia sobie z obawą przed atakiem jądrowym, a obecnie stwarzają nowe zagrożenia, ponieważ jądrowe i niejądrowe systemy dowodzenia, kontroli i łączności są ze sobą powiązane.

Być może nic tak nie pokazuje odczuwanej potrzeby szybkości i powabu automatyzacji, jak fakt, że w ciągu dwóch lat od działań Pietrowa Sowieci wdrożyli nowy system, który miał zwiększyć rolę maszyn w nuklearnym brinkmanshipie. Nazywano go Perimeter, ale większość ludzi nazywała go po prostu Dead Hand (Martwa Ręka), co świadczyło o tym, że w systemie tym człowiek odgrywał coraz mniejszą rolę. Jak to ujął jeden z byłych radzieckich pułkowników i weteranów Strategicznych Sił Rakietowych: „System Perimeter jest bardzo, bardzo ładny. Przenosimy wyjątkową odpowiedzialność z wysokich rangą polityków na wojsko”. Sowieci chcieli, aby system ten częściowo zmniejszył ich obawy przed atakiem jądrowym, zapewniając, że nawet jeśli niespodziewane uderzenie zdoła zdekapitować przywódców kraju, Martwa Ręka dopilnuje, aby nie pozostało ono bezkarne.

Pomysł był prosty, choć wstrząsający: w sytuacji kryzysowej Martwa Ręka miała monitorować otoczenie w poszukiwaniu oznak ataku nuklearnego, takich jak wstrząsy sejsmiczne i wybuchy promieniowania. System, zaprogramowany za pomocą serii poleceń „jeśli” i „kiedy”, przeglądał listę wskaźników w poszukiwaniu dowodów apokalipsy. Jeżeli znaki wskazywały na to, że tak, system sprawdzał kanały komunikacyjne z radzieckim Sztabem Generalnym. Jeśli te łącza były aktywne, system pozostawał w stanie uśpienia. Jeśli system nie otrzymałby informacji ze Sztabu Generalnego, ominąłby zwykłe procedury wydawania rozkazów do ataku. Decyzja o ataku spoczywałaby wówczas w rękach niskiego oficera bunkra, kogoś o wiele niższego rangą od wyższego dowódcy, takiego jak Pietrow, który jednak byłby odpowiedzialny za podjęcie decyzji o tym, czy nadszedł dzień zagłady.

Stany Zjednoczone również były zainteresowane zautomatyzowanymi systemami. Od lat 50. XX wieku rząd USA utrzymywał sieć komputerów, które łączyły strumienie danych napływające z radarów. Ta rozległa sieć, zwana Półautomatycznym Środowiskiem Naziemnym (SAGE), nie była tak zautomatyzowana jak Martwa Ręka, ale jej powstanie wynikało z podobnych obaw. Planiści obronni zaprojektowali SAGE, aby zbierał informacje radarowe o potencjalnym sowieckim ataku powietrznym i przekazywał je do Dowództwa Obrony Północnoamerykańskiej Przestrzeni Powietrznej, które miało przechwycić samoloty. Koszt budowy SAGE był ponad dwukrotnie wyższy niż koszt Projektu Manhattan, czyli prawie 100 miliardów dolarów w 2022 roku. W każdym z dwudziestu obiektów SAGE znajdowały się dwa 250-tonowe komputery, każdy o powierzchni 7500 stóp kwadratowych, należące do najbardziej zaawansowanych maszyn tamtych czasów.

Jeśli wojna nuklearna jest jak gra w kurczaka – dwa narody wyzywają się nawzajem, by się odwrócić, jak dwaj kierowcy pędzący na oślep, to znaczy, że jest to gra w kurczaka. w kierunku czołowego zderzenia – automatyzacja oferuje perspektywę niebezpiecznej, ale skutecznej strategii. Jak opisał to teoretyk energetyki jądrowej Herman Kahn:

Zręczny” gracz może wsiąść do samochodu całkiem pijany, wyrzucając przez okno butelki po whisky, aby wszyscy widzieli, jak bardzo jest pijany. Nosi bardzo ciemne okulary, tak że oczywiste jest, że niewiele widzi, jeśli w ogóle cokolwiek widzi. Gdy tylko samochód osiągnie dużą prędkość, chwyta kierownicę i wyrzuca ją przez okno. Jeśli jego przeciwnik patrzy, to wygrał. Jeśli jego przeciwnik nie patrzy, ma problem; podobnie jest, gdy obaj gracze próbują tej strategii.

Zautomatyzowanie odwetu nuklearnego to zabawa w kurczaka bez hamulców i kierownicy. Mówi się światu, że żaden atak jądrowy nie pozostanie bezkarny, ale znacznie zwiększa ryzyko katastrofalnych wypadków.

Automatyzacja przyczyniła się do powstania niebezpiecznego, ale pozornie przewidywalnego świata wzajemnie gwarantowanego zniszczenia. Ani Stany Zjednoczone, ani Związek Radziecki nie były w stanie przeprowadzić rozbrajającego pierwszego uderzenia przeciwko sobie nawzajem; byłoby niemożliwe, aby jedna strona wystrzeliła swoją broń jądrową bez zaalarmowania drugiej i zapewnienia jej przynajmniej pewnego czasu na reakcję. Nawet gdyby uderzenie z zaskoczenia było możliwe, niepraktyczne byłoby zgromadzenie wystarczająco dużego arsenału broni jądrowej, aby całkowicie rozbroić przeciwnika, wystrzeliwując wiele głowic w każdy wrogi silos, okręt podwodny i bombowiec zdolny do przeprowadzenia kontrataku. Najtrudniej było wiedzieć, gdzie strzelać. Okręty podwodne na oceanie, mobilne systemy naziemne na lądzie i całodobowe patrole lotnictwa bojowego w przestworzach sprawiały, że perspektywa skutecznego przeprowadzenia pierwszego uderzenia była bardzo nierealna. Zautomatyzowane systemy dowodzenia i kontroli zapewniały, że jednostki te będą otrzymywać rozkazy do odwetu. Odwet był nieunikniony, a to umożliwiało utrzymanie niepewnej stabilności.

Nowoczesna technologia grozi zakłóceniem wzajemnego gwarantowanego zniszczenia. Na przykład, gdy zaawansowany pocisk zwany hipersonicznym pojazdem szybującym zbliża się do przestrzeni kosmicznej, oddziela się od rakiet wspomagających i przyspiesza w kierunku celu z pięciokrotną prędkością dźwięku. W przeciwieństwie do tradycyjnych pocisków balistycznych pojazd może radykalnie zmienić profil lotu na dużych odległościach, omijając systemy obrony przeciwrakietowej. Ponadto, dzięki niskiemu pułapowi lotu, czujniki naziemne stają się nieskuteczne, co dodatkowo skraca czas podejmowania decyzji. Niektórzy planiści wojskowi chcą wykorzystać uczenie maszynowe do dalszej poprawy nawigacji i zdolności przetrwania tych pocisków, co sprawi, że przyszła obrona przed nimi będzie jeszcze bardziej niepewna.

Inne rodzaje sztucznej inteligencji mogą naruszyć stabilność jądrową, czyniąc bardziej prawdopodobnym pierwsze uderzenie, które uniemożliwi odwet. Planiści wojskowi obawiają się, że uczenie maszynowe i związane z nim technologie gromadzenia danych mogą ułatwić odnalezienie ukrytych sił jądrowych. Stany Zjednoczone opracowały podobno ściśle tajny program wykorzystania sztucznej inteligencji do śledzenia północnokoreańskich wyrzutni rakietowych. Podobnie, autonomiczne drony pracujące pod powierzchnią morza mogą wykryć wrogie atomowe okręty podwodne, umożliwiając ich neutralizację, zanim zdołają przeprowadzić atak odwetowy. Bardziej zaawansowane operacje cybernetyczne mogą naruszyć systemy dowodzenia i kierowania siłami jądrowymi lub oszukać mechanizmy wczesnego ostrzegania, powodując zamieszanie w sieciach wroga i jeszcze bardziej uniemożliwiając reakcję. Takie obawy przed możliwościami sztucznej inteligencji sprawiają, że strategia nuklearna staje się poważnym wyzwaniem.

i bardziej ryzykowne.

Dla niektórych, tak jak dla strategów z czasów zimnej wojny, którzy zastosowali systemy eksperckie w SAGE i Martwej Ręce, odpowiedzią na te nowe obawy jest większa automatyzacja. Dowódca rosyjskich Strategicznych Sił Rakietowych powiedział, że oryginalna „Martwa Ręka” została udoskonalona i nadal działa, choć nie podał szczegółów technicznych. W Stanach Zjednoczonych niektóre propozycje zakładają opracowanie nowego systemu przypominającego „martwą rękę”, który gwarantowałby, że każde pierwsze uderzenie spotka się z odwetem nuklearnym, co miałoby na celu powstrzymanie takiego uderzenia. Jest to perspektywa, która ma strategiczne znaczenie dla niektórych wojowników, ale budzi poważne obawy zarówno wśród Kasandry, która ostrzega przed obecnymi słabościami procesu decyzyjnego opartego na uczeniu maszynowym, jak i ewangelistów, którzy nie chcą, aby SI mieszała się w nuklearne zmagania.

Podczas gdy obawy ewangelistów są bardziej abstrakcyjne, Kasandry mają konkretne powody do zmartwień. Ich wątpliwości opierają się na historiach takich jak Petrova, w których systemy zostały obdarzone zbyt dużym zaufaniem i tylko człowiek, który zdecydował się nie słuchać rozkazów, uratował sytuację. Awarie techniczne opisane w rozdziale 4 również podsycają ich wątpliwości. Ryzyko operacyjne związane z wdrażaniem zawodnego uczenia maszynowego w złożonych środowiskach, takich jak strategia nuklearna, jest ogromne, a sukcesy uczenia maszynowego w innych kontekstach nie zawsze mają zastosowanie. To, że sieci neuronowe doskonale radzą sobie z grą w Go, generowaniem pozornie autentycznych filmów wideo, a nawet określaniem sposobu składania białek, nie oznacza, że są bardziej odpowiednie niż komputer Petrowa z czasów zimnej wojny do niezawodnego wykrywania ataków jądrowych. W sferze strategii nuklearnej niewłaściwe zaufanie do maszyn może być zabójcze dla cywilizacji; jest to oczywisty przykład tego, jak nowa siła ognia może szybko wymknąć się spod kontroli.

Szczególnie niepokojące jest wyzwanie polegające na znalezieniu równowagi między fałszywymi negatywami a fałszywymi pozytywami – między brakiem ostrzeżenia, gdy atak jest w toku, a fałszywym włączeniem alarmu, gdy go nie ma. Te dwa rodzaje niepowodzeń są w…


Czytaj dalej: https://www.engadget.com/hitting-the-books-the-new-fire-andrew-imbrie-ben-buchanan-mit-press-140004111.html?src=rss

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.