fbpx

Спречување на нуклеарно уништување предизвикано од вештачката интелигенција

Мелиса Парк

Политика

22.11.23

Прегледи

Историјатот на нуклеарното оружје е преполн со примери кога за малку била избегната катастрофа, и тоа благодарение на човек кој избрал да му верува на сопственото расудување, наместо слепо да ги следи информациите дадени од машините. Примената на вештачката интелигенција во однос на нуклеарното оружје ги зголемува шансите следниот пат да нема никој кој би го сопрел лансирањето на бомбите.

Повеќе не сме во доменот на научната фантастика: трката за примена на вештачка интелигенција во системите за нуклеарно оружје е нешто што веќе се случува. Станува збор за активност која може да го направи поверојатен нуклеарниот судир. Со оглед на тоа дека државите од целиот свет дејствуваат во насока на тоа да овозможат безбеден развој и примена на вештачката интелигенција, сепак постои можност да се ублажи оваа опасност. Но, ако светските лидери сакаат да ја искористат оваа можност, тие прво мора да бидат свесни за тоа колку е сериозна оваа закана.

Во последниве неколку недели, групата Г7 се согласи на донесување на Меѓународен кодекс на однесување на Хирошима процесот, кој е наменет за организации кои развиваат напредни системи за вештачка интелигенција, а со цел „да се промовира безбедна и сигурна вештачка интелигенција во целиот свет“. Американскиот претседател Џо Бајден исто така донесе и извршна наредба за воведување на нови стандарди за вештачка интелигенција во однос на нејзината „безбедност и сигурност“. Обединетото Кралство исто така беше домаќин на првиот глобален Самит за безбедност во однос на вештачката интелигенција, со цел да се обезбеди дека оваа технологија се развива на „безбеден и одговорен“ начин.

Сепак, ниту една од овие иницијативи нема соодветен одговор за ризиците кои се својствени на користењето на вештачката интелигенција во однос на нуклеарното оружје. Кодексот на однесување на Г7 како и извршната наредба на претседателот Бајден се однесуваат само на потребата од заштита на населението од хемиски, биолошки и нуклеарни закани кои се предизвикани од вештачката интелигенција. Премиерот на Обединетото Кралство, Риши Сунак, воопшто не ја спомена акутната закана од примената на вештачка интелигенција во однос на нуклеарното оружје, дури и кога изјави, на Самитот за безбедност во однос на вештачката интелигенција, дека е постигнато заедничко разбирање за ризиците што ги носи таа.

Никој не се сомнева во ризиците во однос на самото постоење а предизвикани од употребата на нуклеарно оружје. Тоа би довело до уништување на човештвото и на планетата воопшто. Дури и нуклеарна војна која би била само на регионално ниво директно би убила стотици илјади луѓе, а истовремено би довела и до значителни индиректни страдања и фатални исходи. Климатските промени кои би биле резултат на таквите случувања би претставувале закана од глад за милијарди луѓе.

Нуклеарната историја има многу примери во кои можниот нуклеарен судир бил избегнат во последен момент. Честопати, нуклеарното уништување било спречено од човек кој решил да му верува на сопственото расудување, наместо слепо да ги следи информациите дадени од машините. Во 1983 година, советскиот офицер Станислав Петров добил аларм од сателитскиот систем за рано предупредување: откриени се американски нуклеарни проектили кои се упатуваат кон Советскиот Сојуз. Но, наместо веднаш да ги предупреди своите претпоставени, што сигурно ќе предизвикало нуклеарна „одмазда“, Петров со право утврдил дека станува збор за лажна тревога.

Дали Петров би поставил на ист начин – дали воопшто би имал можност да го стори тоа - ако во игра беше вештачката интелигенција? Всушност, примената на машинското учење на нуклеарното оружје ќе ја намали контролата од страна на луѓето врз одлуките за негово распоредување.

Се разбира, откако е измислено нуклеарното оружје, сè поголем е бројот на командни, контролни и комуникациски задачи кои се автоматизирани. Но, како што машинското учење бележи напредок, процесот со кој напредните машини донесуваат одлуки станува сè помалку транспарентен – ова се нарекува „проблем со црната кутија“ на вештачката интелигенција. Ова нешто го отежнува следењето на тоа како функционира машината, а да не зборуваме за утврдување дали истата е компромитирана, дали не функционира или е програмирана на таков начин што може да доведе до незаконски или ненамерни активности.

Едноставното водење сметка дека човекот е тој што ќе ја донесе конечната одлука за лансирање на проектилите нема да биде доволно за да се ублажат овие ризици. Како што заклучи психологот Џон Хејли една студија од 2017 година, „Луѓето често не успеваат да ги исполнат барањата за следење и интервенција кои се наметнати од надзорната контрола“.

Покрај тоа, како што покажа Програмата за наука и глобална безбедност на Универзитетот Принстон во 2020 година, процесите на донесување одлуки од страна на лидерите во услови на нуклеарна криза веќе се многу избрзани. Дури и ако вештачката интелигенција се користи само во сензорите и за целите на таргетирање, а не во донесувањето одлуки за лансирање - тоа ќе го скуси и онака краткиот временски рок за донесување одлука во врска со тоа дали да се нападне. Дополнителниот притисок врз лидерите ќе го зголеми ризикот од правење погрешна пресметка или од тоа да се донесе ирационална одлука.

Употребата на вештачката интелигенција во сателитски и други системи за разузнавање содржи и други ризици: тоа ќе го отежне криењето на нуклеарното оружје, како на пример подморниците со балистички проектили кои, инаку, биле останале сокриени. Ова би можело да ги поттикне земјите кои имаат нуклеарно оружје да го распоредат целото свое нуклеарно оружје на самите почетоци од конфликтот – уште пред нивните противници да можат да ги имобилизираат нуклеарните системи кои се познати.

Ниту една од досегашните иницијативи (од извршната наредба на претседателот Бајден до Кодексот на однесување на Г7) не отиде подалеку од доброволната обврска за да се обезбеди дека луѓето ќе ја задржат контролата врз одлучувањето во однос на нуклеарното оружје. Но, како што забележа генералниот секретар на Обединетите нации Антонио Гутереш, постоењето на правно обврзувачки договор со кој се забрануваат „смртоносни автономни системи за оружје“ е од клучно значење.

Иако таквиот договор е неопходен прв чекор, сепак, треба да се направи многу повеќе. Кога станува збор за нуклеарно оружје, обидот да се предвидат, ублажат или регулираат новите ризици кои се создадени од новите технологии никогаш нема да бидат доволни. Ние мораме целосно да ги отстраниме овие оружја од равенката.

Ова значи дека сите држави мора да се обврзат да го оневозможат, забрануваат и елиминираат нуклеарното оружје така што ќе станат страни во Договорот за забрана на нуклеарно оружје, кој нуди јасна патека кон постоење на свет во кој нема да има такво оружје. Тоа исто така значи дека државите кои имаат нуклеарно оружје мора веднаш да престанат да инвестираат во осовременување и проширување на своите нуклеарни арсенали, вклучително и во име на тоа да ги направат „безбедни“ или „сигурни“ од сајбер напади. Со оглед на непремостливите ризици кои ги носи самото постоење на нуклеарно оружје, таквите напори се фундаментално залудни.

Ние знаеме дека автономните системи можат да го намалат прагот за вклучување во вооружен конфликт. Кога се применува на нуклеарно оружје, вештачката интелигенција додава уште еден слој на ризик на веќе неприфатливото ниво на опасност. Од клучно значење е креаторите на политиката и јавноста да го препознаат ова и да се застапуваат за тоа не само за да се избегне примената на вештачката интелигенција во однос на нуклеарното оружје, туку и целосно да се елиминира таквото оружје.

 

Авторски права: Project Syndicate, 2023. www.project-syndicate.org

Мелиса Парк

Мелиса Парк e поранешна министерка за меѓународен развој на Австралија, и е извршен директор на Меѓународната кампања за укинување на нуклеарното оружје, која ја доби Нобеловата награда за мир во 2017 година.