„Потребно е да се предупреди јавноста, особено оние кои немаат високо ниво на дигитална писменост, за можностите што ги нуди вештачката интелигенција, особено во доменот на лажните содржини.“
Во морето на дезинформации кои веќе сериозно го загрозуваат квалитетот на информациите од јавен карактер во Србија, постои реален страв дека вештачката интелигенција (АИ) би можела да послужи како дополнителна, но исклучително моќна алатка во однос на сите други за пропагирање на различни интереси, што обично се спротивни на јавниот интерес. Државните институции сè уште не се занимаваат со прашањето за уредување на таа област. А кои се можностите на новинарската заедница да ги заштити стандардите и етиката на професијата?
Трендот на развој и користење на сè понапредната вештачка интелигенција и на нејзините пософистицирани способности рапидно расте. Во контекст на новинарството, АИ може значително да влијае на начинот на кој информациите се собираат, се анализираат и се презентираат пред јавноста, а алатките за автоматско генерирање содржини ги забрзуваат процесите на известување, ја персонализираат содржината за читателите и влијаат на ефикасноста и на брзината на работата на уредништвото.
Меѓутоа, со овој напредок доаѓаат и етички прашања, на пример колку е автентична содржината што ја произведува вештачката интелигенција, кој е одговорен за нејзиното создавање и објавување, со каков квалитет е таквата содржина и дали вештачката интелигенција ги нарушува професионалните стандарди и интегритетот на новинарите.
„Подигнувањето на свеста и едукацијата на корисниците, вклучително и на програмерите и на регулаторите, околу потенцијалните етички и општествени импликации на вештачката интелигенција се од голема важност кога зборуваме за одговорно користење на новите технологии“, изјави за Аутономија (Autonomija) Ненад Радоја, програмер и експерт за ИТ-сектор.
Во однос на законодавството, тој додава дека земјите од Европската Унија работат на ограничување на употребата на алгоритми и вештачка интелигенција, но дека клучните поими се транспарентноста и техничките можности:
„Во техничка смисла, ограничувањата може да вклучуваат развој на алгоритми кои сами се свесни за нивните ограничувања. Промовирање транспарентност во работата на системите и на алгоритмите за вештачка интелигенција, како и јасно дефинирање на одговорностите што произлегуваат од употребата на вештачката интелигенција, би помогнале во организирањето на негативните влијанија“, тврди тој.
На крајот на минатата година беа усвоени предлози за нови регулативи за вештачката интелигенција на ниво на Европската Унија, кои имаат за цел да ги забранат алгоритмите кои ќе препознаваат емоции, како и да ги ограничат биометриските системи кои препознаваат лица во реално време на јавни места (real time-remote biometric identification, RBI) – освен кога се користат за пребарување конкретни осомничени или жртви на одредени кривични дела.
Исто така, воведени се забрани поврзани со препознавање емоции, некои примени на високоризични системи за вештачка интелигенција во приватниот сектор, додека критериумите за класификација на ризикот беа изменети и дополнети.
Извор: govtech.com
„Високите интереси“ ја слабеат заштитата на човековите права
Од Фондацијата SHARE, која се занимава со теми како слободното изразување на интернет, дигиталната безбедност и приватноста на податоците, велат дека се очекува во наредниот период регулативите да почнат да се применуваат и во земјите членки на Унијата.
„Актот за вештачка интелигенција на Европската Унија сè уште не е официјално усвоен, но по постигнувањето политички договор во декември минатата година, текстот беше практично финализиран и се очекува актот да помине низ преостанатите процедури пред изборите за Европскиот парламент закажани налето“, изјавија за нашиот портал од таа организација.
Како што објаснуваат од Фондацијата SHARE, во овој правен акт системите и моделите за вештачка интелигенција ќе бидат класифицирани според нивото на ризик врз човековите права и врз општеството воопшто. Од овие законски обврски ќе зависат и оние кои ќе ги развиваат и ќе ги имплементираат, а ќе се предвидат и казни, односно забранети апликации, како што е „социјалното бодување“.
Тие, сепак, посочуваат дека притисоците на земјите членки на ЕУ, кои имаат интерес да користат напредни технологии за полициски цели што е можно повеќе, како и лобирањето на големите корпоративни играчи во областа на вештачката интелигенција, доведоа, меѓу други работи, до фактот дека пречистениот текст е понеповолен во однос на заштитата на човековите права од она што првично се очекуваше.
На ниво на Србија не се усвоени слични правила.
Новинарите треба да бидат „чекор напред“
Иако вештачката интелигенција има тенденција да замени голем број работни места и да преземе човечки улоги, прашање е дали такво нешто може да се направи кога станува збор за новинарството. Дискутабилно е прашањето до кој степен софтверските решенија и алгоритми можат да „бидат новинари“, односно дали можат да се користат како замена за човечкиот фактор кој ќе составува значајни истражувачки и аналитички текстови или едноставно ќе собира статистички податоци и ќе формира реченици врз основа на нив. Затоа, експертите сметаат дека ќе има разлика меѓу редакциите кои користат дигитални решенија и оние кои вработуваат вистински новинари.
Развојот на алгоритми и нивната неограничена употреба се очекува да го зголемат јазот кога станува збор за општествените, културните и политичките разлики, смета Стефан Јањиќ, уредник на порталот Fake News Tragač и асистент на Катедрата за новинарство на Филозофскиот факултет во Нови Сад.
„Минатата пролет, голем број личности, вклучувајќи го и Илон Маск, потпишаа меморандум со кој бараа запирање на понатамошниот развој на вештачката интелигенција поради многуте ризици поврзани со нејзиниот екстремно брз напредок. Сепак, јасно е дека ова е невозможна мисија: проектите кои ја подобруваат вештачката интелигенција се многу децентрализирани, па дури и ако некој вид забрана стапи на сила, многу тимови би продолжиле да ја зајакнуваат вештачката интелигенција, чекајќи го моментот кога плаќањето ќе биде повторно можно“, истакнува тој.
Јањиќ за Аутономија оценува дека во овој поглед парите не мора да бидат примарен мотив.
„Многумина би продолжиле да го следат развојот на вештачката интелигенција водени од љубопитност, бидејќи резултатите во различни области ‒ од хакирање до медицина ‒ можат да бидат навистина фасцинантни. Системите кои овозможуваат создавање на длабоко лажни порнографски содржини имаат почетна точка во достапните онлајн-корпуси, во кои квантитативно доминира прикажувањето на женското тело. Затоа се продолжува и се продлабочува нееднаквоста што ја имавме во времето пред ерата на вештачката интелигенција“, предупредува нашиот соговорник.
Со него се согласуваат и од фондацијата SHARE, кои посочуваат дека генеративната вештачка интелигенција (GenAI) овозможува создавање на веродостојни лажни содржини кои исто така можат да придонесат за загрозување на новинарската работа и углед, а со тоа и на самата јавност.
Зборувајќи за улогата на новинарството и на самите новинари во однос на употребата на вештачката интелигенција и на подигањето на свеста за ризиците врз јавноста, Стефан Јањиќ оценува дека новинарите треба да пристапат смирено, без фатализам, но и без непотребна фасцинација.
„Потребно е да се предупреди јавноста, особено оние кои немаат високо ниво на дигитална писменост, за можностите што ги нуди вештачката интелигенција, особено во доменот на лажните содржини. Дополнително, новинарите треба да размислуваат ‘еден чекор понапред’: да не чекаат да се појави новата фаза на вештачката интелигенција, па дури тогаш да зборуваат за тоа. Штетата ‒ која секако ќе ја има, на најразлични нивоа ‒ полесно ќе се спречи ако зборуваме за проблемот пред да добие целосен замав“, вели Стефан Јањиќ.
Текстот е објавен како дел од иницијативата „Приказни од регионот“ која ја спроведуваат Рес публика и ИКС, во соработка со партнерите од Косово (Sbunker), Србија (Autonomija), Босна и Херцеговина (Анализирај.ба), Албанија (Exit News), и Црна Гора (PCNEN), во рамки на проектот „Користи факти“ кој се реализира од ИКС, со поддршка на Британската амбасада во Скопје.
Ве молиме прочитајте ги правилата пред да коментирате или превземате Напомена: Мислењата и ставовите во оваа статија се на авторот и не ги одразува позициите на Институтот за комуникациски студии ниту на донаторот.