fbpx

Кој треба да одлучи како ќе одлучуваат алгоритмите?

Марк Еспосито, Теренс Це, Џошуа Ентсмингер и Аурели Жан

Политика

19.04.19

Прегледи

Марк Еспосито (Mark Esposito), Теренс Це (Terence Tse), Џошуа Ентсмингер (Joshua Entsminger) и Аурели Жан (Aurélie Jean)

За да се спречи постапување на поединецот против општото добро, ќе треба да има рамки за воспоставување на комуникација и координација на одлуките меѓу автономните возила (АВ).

Во текот на изминатите неколку години, студијата „Морална машина“, предводена од МИТ, ги испитуваше мислењата на јавноста за тоа како апликациите за вештачка интелигенција треба да се однесуваат во различни околности. Еден заклучок од податоците е дека кога некое автономно (беспилотно) возило (АВ) ќе наиде на ситуација на живот или смрт, мислењата за тоа како возилото треба да реагира, во голема мера зависат од тоа од каде потекнуваат испитаниците и што знаат за пешаците или патниците што се вклучени.

На пример, во АВ верзија на добро познатиот „проблем со вагонот“ (каде од движењето на вагонот би загинале неколкумина ако возачот не стори ништо, или ако намерно го сврти кон друга шина би загинал еден човек), некои би рекле дека автомобилот треба да удри во осуден убиец наместо да повреди други луѓе, или да удри во постар граѓанин наместо во дете. Сепак, други би можеле да тврдат дека АВ треба едноставно да ризикува за да се избегне дискриминација заснована на податоци.

Општо земено, ваквите дилеми се резервирани за судници или полициски истраги, што се случуваат по немилиот настан. Но, во случај на АВ, изборот ќе се направи во неколку милисекунди, што не е доволно време да се донесе информирана одлука. Не е важно што ние го знаеме, туку она што автомобилот го знае. Прашањето, тогаш, е какви информации треба да имаат автономните возила за луѓето околу нив. И дали треба да им се дозволи на фирмите да нудат различни етички системи во обид да добијат конкурентна предност?

Размислете за следново сценарио: автомобил од Кина има различни фабрички стандарди од автомобил од САД, но е испратен во САД и таму се користи. Да претпоставиме дека доаѓа до неизбежен судир меѓу автомобилот произведен во Кина и автомобилот произведен во САД. Ако возачот на кинескиот автомобил има различни етички приоритети од возачот на американскиот автомобил, кој систем треба да преовлада?

Покрај културолошките разлики во етичките приоритети, исто така мора да се разгледаат разликите во регулативите за податоци во земјите. Кинескиот автомобил, на пример, може да има пристап до податоци за социјален успех на поединецот, дозволувајќи му на алгоритмот за донесување одлуки да вклучи дополнителни информации кои не се достапни за американските производители на автомобили. Побогатите податоци може да доведат до подобри, подоследни одлуки, но дали таквата предност е оправдание за едниот систем да го надвладее другиот?

Јасно е дека, пред АВ масовно да се приклучат во сообраќајот, ќе треба да утврдиме каде лежи одговорноста за алгоритамското одлучување, односно дали одговорни ќе бидат општинските власти, националните влади или мултилатералните институции. Понатаму, ќе ни требаат нови рамки за регулирање на овој пресек на бизнисот и државата. Во прашање не е само она што АВ ќе го направат во екстремни ситуации, туку како бизнисите ќе комуницираат со различните култури при развивањето и имплементирањето на алгоритмите за донесување одлуки.

Лесно е да се замисли дека сите производители на АВ едноставно ќе рекламираат етички системи кои го вреднуваат животот на возачот пред сè друго или му овозможуваат на корисникот да ги примени сопствените етички вредности. За да се спречи постапување на поединецот против општото добро, ќе треба да има рамки за воспоставување на комуникација и координација на одлуките меѓу АВ. Но, во развивањето на вакви системи во различни културни контексти, креаторите на јавни политики и бизнисите ќе се соочат со различни културни поими за суверенитет, приватност и индивидуална автономија.

Ова наметнува дополнителен предизвик, бидејќи системите на вештачка интелигенција (AI) не толерираат двосмисленост. За да се дизајнира апликација заснована на вештачка интелигенција од нула потребна е детална специфичност;  а овие системи прават точно како што им велите да направат, без оглед дали е тоа добро или лошо. Тоа значи дека фирмите, владите и другите даватели на вакви услуги ќе треба да направат експлицитни избори кога ќе кодираат одговорни протоколи за различни ситуации.

Сепак, пред тоа да се случи, креаторите на политики ќе треба да го утврдат обемот на алгоритамската одговорност, да утврдат какви одлуки треба да се препуштат на бизнисите или поединците, ако воопшто им се препуштаат одлуки ним. Оние што спаѓаат во надлежност на државата ќе мора да се дебатираат. И со оглед на тоа што таквите етички и морални прашања немаат лесни одговори, мала е веројатноста дека ќе се постигне консензус. Без крајна одлука, ќе треба да создадеме системи кои барем ја олеснуваат комуникацијата помеѓу АВ и решаваат алгоритамски спорови и незгоди на патиштата.

Со оглед на потребата за специфичност во дизајнирањето на алгоритмите за донесување одлуки, логично е дека ќе биде потребно меѓународно тело кое ќе ги постави стандардите според кои ќе се решаваат моралните и етичките дилеми. На крајот на краиштата, АВ се само апликација на алгоритамски одлуки. Гледајќи кон иднината, стандардите за алгоритамска одговорност ќе треба да се управуваат низ многу домени.

На крајот, првото прашање што треба да го одговориме е дали фирмите имаат право да дизајнираат алтернативни етички рамки за алгоритамско одлучување. Ние би рекле дека немаат.

Во ерата на вештачка интелигенција, некои компоненти на глобалните синџири на вредности на крај ќе бидат автоматизирани поради следот на настаните и во тој момент тие повеќе нема да се сметаат како области во кои фирмите ќе бараат предност пред конкуренцијата. Процесот за утврдување и судење на алгоритамската одговорност треба да биде една таква област. Неспорно е дека ќе се донесуваат одлуки, вака или онака. Подобро е тие да се решаваат подеднакво и колку што е можно подемократски.

Марк Еспосито е професор по бизнис и економија на Меѓунардодниот факлутет за бизнис „Халт“ (Hult International Business School) и на Универзитетот Харвард и е ко-основач на Nexus FrontierTech и соработник на Школата „Мохамед бин Рашид“ за владеење и лидерство во Дубаи и бизнис школата за судии во Кембриџ. Теренс Це е професор на Европската бизнис-школа ESCР во Лондон, е ко-основач на Nexus FrontierTech. Џошуа Енцмингер е истражувач во Nexus FrontierTech и виш соработник во Центарот за политика и конкурентност Ecole des Ponts. Аурели Жан е експерт за научно сметање, основач на In Silico Veritas и е советник за Boston Consulting Group и надворешен соработник во Министерството за образование на Франција.

Copyright: Project Syndicate, 2019.
www.project-syndicate.org

Марк Еспосито, Теренс Це, Џошуа Ентсмингер и Аурели Жан

Марк Еспосито е професор по бизнис и економија на Меѓунардодниот факлутет за бизнис „Халт“ (Hult International Business School) и на Универзитетот Харвард и е ко-основач на Nexus FrontierTech и соработник на Школата „Мохамед бин Рашид“ за владеење и лидерство во Дубаи и бизнис школата за судии во Кембриџ. Теренс Це е професор на Европската бизнис-школа ESCР во Лондон, е ко-основач на Nexus FrontierTech. Џошуа Енцмингер е истражувач во Nexus FrontierTech и виш соработник во Центарот за политика и конкурентност Ecole des Ponts. Аурели Жан е експерт за научно сметање, основач на In Silico Veritas и е советник за Boston Consulting Group и надворешен соработник во Министерството за образование на Франција.