OpenAI współpracuje z firmą Anduril Industries nad wykorzystaniem sztucznej inteligencji w celach wojskowych!
Ta sama technologia, która stoi za ChatGPT, może wkrótce samodzielnie podejmować decyzje czy wróg powinien zostać unicestwiony.
Ta sama technologia, która stoi za ChatGPT, może wkrótce samodzielnie podejmować decyzje czy wróg powinien zostać unicestwiony.
Rozprzestrzenianie się sztucznej inteligencji budzi wiele uzasadnionych obaw, zwłaszcza że technologia ta coraz częściej wykorzystywana jest w celach militarnych. Brzmi to niczym cyberpunkowa dystopia, ale fakty są takie, że OpenAI właśnie nawiązało współpracę z jednym z kontrahentów amerykańskiego departamentu obronny. Celem jest rozwój systemów obrony przeciwlotniczej wykorzystujących modele sztucznej inteligencji podobne do ChatGPT, które mają pomóc w podjęciu decyzji o zniszczeniu wroga.
W środę firma Anduril Industries (Anduril czyli Płomień Zachodu w Quenya, miecz Aragorna) należąca do znanego m.in ze wspierania Donalda Trumpa Palmera Luckeya (założyciela Oculusa) ogłosiła „strategiczne partnerstwo” z OpenAI Sama Altmana w celu „opracowania i odpowiedzialnego wdrożenia zaawansowanych rozwiązań sztucznej inteligencji (AI) w zadaniach dotyczących bezpieczeństwa narodowego”.
Firmy będą początkowo koncentrować się na opracowywaniu technologii antydronowych. Obrona ta będzie wykorzystywana głównie przeciwko bezzałogowym dronom i innym podobnym zagrożeniom w przestrzeni powietrznej. Partnerstwo skupi się na ulepszeniu amerykańskich systemów zwalczania bezzałogowych statków powietrznych (CUAS) i ich zdolności do wykrywania, oceny i reagowania w czasie rzeczywistym na potencjalnie śmiertelne zagrożenia z powietrza.
Wykorzystanie modeli sztucznej inteligencji do identyfikacji i niszczenia bezzałogowych dronów nie brzmi może źle, ale w oświadczeniu wspomniano również o zagrożeniach ze strony starszych platform załogowych, tj. samolotów pilotowanych przez ludzi.
Według firm modele AI będą szybko syntetyzować dane wymagające szybkiej reakcji, zmniejszać obciążenie operatorów i poprawiać świadomość sytuacyjną.
OpenAI ujawniło w styczniu, że współpracuje z Departamentem Obrony Stanów Zjednoczonych przy projektach związanych z cyberbezpieczeństwem, modyfikując swoje zasady, aby umożliwić pewne wojskowe zastosowania swojej technologii. Firma Sama Altmana nadal zabraniała wykorzystywania jej do opracowywania broni, ale wydaje się, że jej surowe stanowisko wobec tego, co zasadniczo jest bronią zasilaną przez ChatGPT, uległo zachwianiu.
Również inne firmy zajmujące się sztuczną inteligencją angażują się w lukratywne partnerstwa w sektorze obronnym, w tym z firmą Anthropic, która nawiązała współpracę z Palantir, przedsiębiorstwem należącym do miliardera Petera Thiela (jak widać nowoczesne firmy z sektora zbrojeniowego lubią tolkienowskie nazwy). Google DeepMind ma również kontrakty z klientami wojskowymi, co sprawiło, że na początku tego roku 200 pracowników firmy w liście wysłanym do kierownictwa Google zdecydowanie sprzeciwiło się takiemu wykorzystaniu AI.
Od lat pojawiają się apele o zakazanie broni autonomicznej / sztucznej inteligencji. W 2015 roku Elon Musk, Stephen Hawking i Steve Wozniak byli tylko trzema z 1000 głośnych nazwisk, które podpisały list otwarty wzywający do zakazu „ofensywnej broni autonomicznej”.
Od tego czasu sztuczna inteligencja poczyniła ogromne postępy, pojawiając się w większej liczbie broni i pojazdów wojskowych, w tym w myśliwcach odrzutowych sterowanych przez AI. Oczywiście technologia AI nadal popełnia błędy i zdarza jej się halucynować, co jest niepokojące, gdy może kontrolować śmiercionośną broń.
Największą obawą jest to, że sztuczna inteligencja może zostać wykorzystana w systemach decydujących o odpaleniu pocisków nuklearnych. W maju Stany Zjednoczone stwierdziły, że nigdy do tego nie dojdzie i wezwały Rosję i Chiny do złożenia takiego samego zobowiązania. Ale w zeszłym miesiącu Pentagon zapowiedział, że chce, aby sztuczna inteligencja zwiększyła możliwości podejmowania decyzji w zakresie dowodzenia i kontroli nad arsenałem nuklearnym.
Czy AI wykazałoby się jednak takim rozsądkiem, opanowaniem i humanizmem, jak radziecki oficer Stanisław Pietrow, gdyby doszło do błędnego odczytania danych, jak miało to miejsce podczas incydentu w dniu 26 września 1983? Tego dnia krótko po północy radziecki satelitarny system wczesnego ostrzegania „Oko” zinterpretował światło słoneczne odbite od chmur jako wystrzelenie międzykontynentalnych pocisków balistycznych przez USA. Doomsday Clock był wtedy naprawdę o kilka sekund od północy, o wiele bliżej niż obecnie, gdy i tak jest to jedyne 90 sekund, czyli mniej nawet niż w czasach nuklearnego wyścigu zbrojeń podczas Zimnej Wojny. Jednak w 1983 roku nie mogliśmy tego wiedzieć, bo prawda o tym indydencie wyszła na jaw dopiero w 1998 roku, kilka lat po upadku ZSRR. Zaskakującym zbiegiem okoliczności jest tu fakt, że klasyczny film s-f Gry wojenne opisujący podobne zdarzenie z perspektywy USA, gdzie wojsko chciało użyć komputera do podejmowania decyzji o wystrzeleniu pocisków balistycznych, wszedł na ekrany kin w Ameryce w czerwcu 1983 roku. Niepokojące jednak, że znowu robi się on aktualny.
Źródło: Opracowanie własne/TechSpot
Kalendarz premier seriali
Zobacz wszystkie premieryDzisiaj urodziny obchodzą
ur. 1946, kończy 78 lat
ur. 1963, kończy 61 lat
ur. 1979, kończy 45 lat
ur. 1978, kończy 46 lat
ur. 1978, kończy 46 lat