fbpx

Inteligjenca artificiale dhe gazetaria – pa fatalizëm, por edhe pa magjepsje

Vanja Velisavljev

Medija

Priče iz regiona

22.03.24

Прегледи

Neophodno je upozoriti publiku, posebno onu koja nema visok nivo digitalne pismenosti, na mogućnosti koje pruža veštačka inteligencija, posebno u domenu obmanjujućih sadržaja.“

U moru dezinformacija koje već ozbiljno ugrožavaju kvalitet javnog informisanja u Srbiji, realna je bojazan da bi veštačka inteligencija (AI) mogla da posluži kao dodatna, ali izuzetno moćnija alatka od svih ostalih u propagiranju različitih interesa, koji su najčešće suprotstavljenu javnom interesu. Državne institucije se još uvek ne bave pitanjem regulisanja te oblasti. A kakve su mogućnosti novinarske zajednice da zaštiti standarde i etiku profesije?

Trend razvoja i korišćenja sve naprednije veštačke inteligencije i njenih sofiticiranijih sposobnosti u rapidnom je porastu. U kontekstu novinarstva, Ai može značajno uticati na način na koji se informacije prikupljaju, analiziraju i prezentuju publici, a automatizovani alati za generisanje sadržaja ubrzavaju procese izveštavanja, personalizuju sadržaj za čitaoce i utiču na efikasnost i brzinu rada redakcija.

Međutim, sa ovim napretkom dolaze i etička pitanja, a samo neka od njih jesu koliko je sadržaj koji je AI proizvela autentičan, ko snosi odgovornost za njegovo kreiranje i publikovanje, kakvog je kvaliteta takav sadržaj i da li AI narušava profesionalne standarde i integritet novinara.

„Podizanje svesti i obrazovanje korisnika, uključujući programere  i regulatore, o potencijalnim etičkim i društvenim implikacijama AI-a važne su stavke kada govorimo o odgovornom korišćenju novih tehnologija“, kaže za Autonomiju programer i stručnjak za IT sektor Nenad Radoja.

U pogledu zakonske regulative, dodaje da zemlje Evropske unije rade na tome da ograniče upotrebu algoritama i veštačke inteligencije, ali da su ključni pojmovi transparentnost i tehničke mogućnosti:

„U tehničkom smislu, ograničenja mogu uključivati razvoj algoritama koji su samosvesni u pogledu svojih ograničenja. Promovisanje transparentnosti u radu AI sistema i algoritama, kao i jasno definisanje odgovornosti koje sa sobom nosi korišćenje AI, pomoglo bi u organičavanju negativnih uticaja“, napominje on.

Krajem prošle godine na nivou Evropske unije usvojeni su predlozi novih regulativa o veštačkoj inteligenciji koji za cilj imaju da zabrane algoritme koji bi prepoznavali emocije, kao i da ograniče biometrijske sisteme koji u realnom vremenu na javnim mestima prepoznaju lica (real time- remote biometric identification, RBI) – osim kada se koriste za pretragu konkretnih osumnjičenih osoba ili žrtava određenih krivičnih dela.

Takođe, unete su zabrane koje se odnose na prepoznavanje emocija, neke primene visokorizičnih AI sistema u privatnom sektoru, dok su dopunjeni kriterijumi klasifikacije rizika.

„Viši interesi“ slabe zaštitu ljudskih prava

Iz Fondacije SHARE koja se bavi temama poput slobodnog izražavanja na internetu, digitalne bezbednosti i privatnosti podataka, kažu da se očekuje da u narednom periodu uredbe počnu da se primenjuju u zemljama čanicama Unije.

Akt o veštačkoj inteligenciji Evropske unije još uvek nije zvanično usvojen, ali je nakon postizanja političkog dogovora u decembru prošle godine tekst praktično finalizovan i očekuje se da će akt proći kroz preostale procedure pre izbora za Evropski parlament koji su zakazani na leto“, naveli su za naš portal iz te organizacije.

Izvor: govtech.com

Kako objašnjavju iz SHARE-a, u ovom aktu sistemi i modeli veštačke inteligencije će se klasifikovati prema nivou rizika po ljudska prava i  društvo uopšte. A od toga će zavisiti i zakonske obaveze za one koji ih razvijaju i primenjuju, a biće predviđene i kazne, odnosno zabranjene primene poput ’socijalnog bodovanja’.

Ukazuju, međutim, da su pritisci država članica EU kojima je u interesu da što više koriste napredne tehnologije za policijske svrhe, ali i lobiranje velikih korporativnih igrača na polju veštačke inteligencije, doveli, između ostalog, do toga da je konsolidovani tekst nepovoljniji u pogledu zaštite ljudskih prava od onoga što se inicijalno očekivalo.

Slična pravila na nivou Srbije nisu doneta.

Novinari treba da razmišljaju ’korak unapred’

Iako Ai ima tendenciju da zameni veliki broj poslova i preuzme ljudske uloge, upitno je da li tako nešto može da se učini kada je reč o novinarstvu. Debatno je pitanje u kojoj meri softverska rešenja i algoritmi mogu da „budu novinari“, odnosno mogu li se koristiti kao zamena za ljudski faktor koji će sastavljati smislene istraživačke i analitičke tekstove ili će puko prikupljati statističke podatke i na osnovu njih formirati rečenice. Stoga, stručnjaci smatraju da će postojati razlika između redakcija koje se služe digitalnim rešenjima i onima koje su zaposlile prave novinare.

Razvojem algoritama i njihovim neograničavanjem može se očekivati i pojačani jaz kada je reč o društvenim, kulturološkim i političkim razlikama, smatra urednik portala Fake News Tragač i asistent na Odseku za žurnalistiku na Filozofskom fakultetu u Novom Sadu Stefan Janjić.

„Prošlog proleća je niz ličnosti, uključujući i Ilona Maska, potpisalo memorandum kojim se traži stopiranje daljeg razvoja veštačke inteligencije zbog mnogih rizika koji su povezani s njenim izuzetno brzim napretkom. Međutim, jasno je da je reč o nemogućoj misiji: projekti kojima se unapređuje AI vrlo su decentralizovani, pa bi – čak i da nekakva zabrana stupi na snagu – mnogi timovi nastavili da jačaju AI, čekajući momenat kada će naplata ponovo biti moguća“, ističe on.

Janjić za Autonomiju ocenjuje da u tom pogledu novac i ne mora biti primarni motiv.

„Mnogi bi nastavili da se bave razvojem AI vođeni znatiželjom, jer rezultati u različitim sferama – od hakovanja do medicine – mogu biti zaista fascinantni. Sistemi koji omogućavaju izradu dipfejk pornografskih sadržaja imaju polazište u dostupnim onlajn korpusima, u kojima kvantitativno dominira prikaz ženskog tela. Dakle, nejednakost koju smo imali u vremenu pre AI ere perpetuira se i produbljuje“, upozorava naš sagovornik.

Sa njime se slažu i u SHARE fondaciji, te ističu da generativna veštačka inteligencija (GenAI) omogućava kreiranje uverljivih lažnih sadržaja koji takođe mogu da doprinesu ugrožavanju novinarskog rada i reputacije, a time i samog javnog informisanja.

Govoreći o ulozi novinarstva i samih novinara u pogledu upotrebe AI i podizanja svesti o rizicima kod publike, Stefan Janjić ocenjuje da bi novinari tome trebalo da pristupaju  staloženo, bez fatalizma, ali i bez bespotrebne fascinacije.

 „Neophodno je upozoriti publiku, posebno onu koja nema visok nivo digitalne pismenosti, na mogućnosti koje pruža veštačka inteligencija, posebno u domenu obmanjujućih sadržaja. Uz to, novinari bi trebalo da razmišljaju ’korak unapred’: da ne čekaju da se novi stadijum AI pojavi da bi tek tad govorili o njemu. Štetu – koje će sigurno biti, na najrazličitijim nivoima – lakše ćemo suzbijati ako o problemu govorimo pre nego što taj problem dobije pun zamah“, poručuje Stefan Janjić.

 

Tekst je nastao u sklopu izdanja “Priča iz regije” kojeg provode Res Publica i Institut za komunikacijske studije, u suradnji s partnerima iz Crna Gora (PCNEN), Kosova (Sbunker), Srbije (Autonomija), Bosne i Hercegovine (Analiziraj.ba), i Albaniji (Exit News), u okviru projekta "Korišćenje novinarstva zasnovanog na činjenicama za podizanje svesti i suprotstavljanje dezinformacijama u medijskom prostoru" uz podršku Britanske ambasade u Skoplju.

Molimo pročitajte pravila pre komentarisanja ili preuzimanja Napomena: Stavovi i mišljenja izraženi u ovom članku su stavovi autora i ne odražavaju nužno stavove Instituta za komunikacijske studije ili donatora.

Vanja Velisavljev

Vanja Velisavljev radi u Nezavisnom društvu novinara Vojvodine. Diplomirana je novinarka i master komunikološkinja, a trenutno pohađa Interdisciplinarne doktorske studije humanističkih nauka na Filozofskom fakultetu u Novom Sadu. Saradnica je Autonomije i VOICE-a, kao i partnerskog medija Agrosmart za koji izveštava na teme u vezi sa poljoprivredom.