fbpx

Спречување на апокалипса предизвикана од вештачка интелигенција (ВИ) 

Политика

08.06.19

Прегледи

Сет Баум 

set baum200x250Скорешниот напредок во вештачката интелигенција во најмала рака може да се рече дека е драстичен. ВИ го трансформира скоро секој сектор од општеството, од превозот, медицината, до одбраната. Затоа вреди да се размисли што ќе се случи кога таа ќе напредне уште повеќе.

Апокалиптичниот став е дека сите машини предводени од ВИ ќе станат попаметни од луѓето, ќе го преземат светот и ќе нè убијат сите. Ваквото сценарио често се појавува во научната фантастика, и лесно е да се побие истото, земајќи предвид дека луѓето и натаму остануваат со цврста контрола. Сепак, многу експерти за ВИ сериозно ја сфаќаат апокалиптичната перспектива, и тоа со право. Истото треба да го стори и останатиот дел од општеството.

За да се разбере темата, размислете за разликата помеѓу „тесна ВИ“ и „вештачка генерална интелигенција“ (ВГИ). Тесната ВИ може да функционира само во еден или во мал број области истовремено, и може да биде поуспешна од луѓето за некои задачи, но сепак останува под контрола на човекот.

ВГИ, спротивно на тоа, може да резонира во голем број на области, а со тоа може и да реплицира голем број на човечки интелектуални вештини, истовремено задржувајќи ја предноста на компјутерите, како што е совршеното помнење. Предводена на префинет компјутерски хардвер, ВГИ може да испадне побрза од човечката когниција или спознавање. Всушност, тешко е да се замисли горна граница до која ВГИ би можела да напредне.

Како што стојат работите, поголемиот дел од ВИ е тесна. Навистина, дури и најнапредните сегашни системи имаат ограничени количини на генералност. На пример, и покрај тоа што системот на  AlphaZero на DeepMind на Гугл успеа да ги совлада Go, шах и шоги – со што тој стана погенерален од повеќето системи на ВИ, што може да се примени само за една специфична активност – тој сепак покажува способности во ограничени рамки на дадени високо структурирани игри.

Многу информирани луѓе не ја прифаќаат можноста за напредна ВГИ. Некои, како Селмер Брингсјорд од политехничкиот институт Ренселаер и Дру Мекдермот од универзитетот Јејл, тврдат дека е невозможно ВИ да стане попаметна од човекот. Други пак, како што се Маргарет А. Боден од Универзитетот на Сасекс и Орен Ециони од Институтот Ален за вештачка интелигенција, тврдат дека ВИ на човечко ниво е возможна во далечната иднина, но сега е прерано да почнеме да се грижиме за тоа.

Овие скептици не се маргинални ликови, како оние што сакаат да ја оспорат науката за климатски промени. Овие се реномирани школари за компјутерски науки и сродни области, и нивните мислења мора да се сфатат сериозно.

Други реномирани школари, пак, - меѓу кои и Дејвид Џ. Чалмерс од Универзитетот на Њујорк, Алан Дафо од Универзитетот Јејл и Стјуарт Расел од Универзитетот на Калифорнија, Беркли, Ник Бостром од Универзитетот Оксфорд и Роман Јамполскиј од Универзитетот на Луивил – се загрижени дека ВГИ би можела да претставува сериозна, дури и егзистенцијална закана за човештвото. Експертите се редат на двете страни од дебатата, а ние, останатите, треба да бидеме подготвени на сè.

Дополнително, ВГИ е фокусот на значителни истражувања и развој. Неодамна направив анкета на истражувачки и развојни проекти за ВГИ, идентификувајќи дека постојат 45 такви, во 30 земји на шест континенти. Многу активни иницијативи се засновани во големи корпорации како што се Baidu, Facebook, Google, Microsoft, и Tencent, и на врвните универзитети како што се Карнеги Мелон, Харвард и Стенфорд, како и на Кинеската академија на науки. Не е мудро да се мисли дека ниту еден од овие проекти нема да биде успешен.

121slika
Извор: vision.zf.com

Друг начин на размислување за потенцијалната закана од ВГИ е да се спореди ВГИ со други катастрофални ризици. Во 90-тите години од дваесеттиот век, Конгресот на САД сметаше дека е соодветно НАСА да следи големи астероиди кои би можеле да се судрат со Земјата, дури и покрај тоа што шансите за тоа да се случи се околу една од 5.000 во еден век. Кај ВГИ, шансите за катастрофа во следниот век ви можеле да бидат многу повисоки, како една од сто, дури и една од десет, судејќи по динамиката на истражувањето и развојот и нивото на загриженост на експертите.

Прашањето, тогаш, е што да се преземе. За почеток, треба да се осигуриме дека истражувањето и развојот се вршат одговорно, безбедно и етички. За ова ќе биде потребно подлабок дијалог помеѓу оние кои работат во областа на ВИ и креаторите на јавни политики, социјалните научници и засегнатите граѓани. Оние кои работат во оваа област ја знаат технологијата и тие ќе бидат оние што ќе ја дизајнираат според договорени стандарди; но тие не смеат да одлучуваат сами за тоа какви ќе бидат тие стандарди. Многу од луѓето кои развиваат примени за ВИ не се навикнати да размислуваат за општествените последици од нивната работа. За тоа да се смени, тие мора да ги дознаат и надворешните перспективи.

Креаторите на јавни политики исто така ќе мора да се справат со меѓународните димензии на ВГИ. Во моментов, најголемиот дел на истражувања и развој на ВГИ се врши во САД, Европа и Кина, но поголемиот дел од кодот е отворен (open source), што значи дека работата би можела да се работи од било кое место. Така, утврдувањето на стандарди и етички правила всушност е задача за целата меѓународна јавност, иако центрите за истражување и развој треба да бидат предводници во тоа.

Гледајќи нанапред, некои напори за решавање на ризиците што со себе ги носи ВГИ може да се прикачат на иницијативи за јавни политики кои веќе постојат за тесната ВИ, како што е новиот двопартиска Конвенција за ВИ започната од Џон Дилејни, демократски конгресмен од Мериленд. Има многу можности за синергија помеѓу оние кои работат на краткорочните ризици од ВИ и оние кои размислуваат долгорочно.

Без оглед дали ВИ и ВГИ ги гледаме заедно или одвоено, она што е најважно е сега да преземеме конструктивни чекори за минимизирање на ризикот од катастрофа што претстои. Ова не е задача што може да ја оставиме за последната минута.


Сет Баум е Извршен директор на Институтот за глобални катастрофални ризици (GCRI), што е експертска група фокусирана на екстремни глобални ризици. Тој истовремено е поврзан со Институтот за науки Blue Marble Space и Центарот за проучување егзистенцијални ризици при Универзитетот Кембриџ.