Inteligjenca artificiale ushqen narrativë nacionaliste për statusin e Kosovës

“Grok, çka mund të më thuash për Kosovën?” Kur kjo pyetje i shtrohet modelit të inteligjencës artificiale të platformës X, Grok – i ngjashëm me ChatGPT – ajo merr përgjigje me përmbajtje plotësisht të ndryshme, varësisht nga gjuha në të cilën bëhet.
“Kosova është Serbi”, përgjigjet në serbisht.
Pse ndodh kjo? Vetë Grok-u e shpjegon thjesht dhe shkurt.
“Kjo ndodh sepse unë përshtatem me shenjat kulturore dhe kontekstuale që janë të ngulitura në secilën gjuhë, të cilat mund të ndikojnë në mënyrën se si i interpretoj dhe u përgjigjem temave të ndjeshme si statusi i Kosovës”, thuhet në përgjigjen e Grok-ut ndaj pyetjes së Radios Evropa e Lirë.

Kështu, Grok-u sqaron se, në serbisht, thekson “perspektivën e Serbisë, që e sheh Kosovën si krahinë autonome brenda kufijve të saj”; në shqip, paraqet “sovranitetin e Kosovës” si pikëpamje të Kosovës; ndërsa në anglisht synon “të ofrojë një pasqyrë neutrale dhe faktike, duke balancuar të dyja anët”.
Radio Evropa e Lirë ka kontaktuar zyrën e medias të zhvilluesit të Grok-ut, por nuk ka marrë përgjigje.
Përgjigje nuk kanë dhënë as zhvilluesit e platformave të tjera të ngjashme, si ChatGPT – e bërë nga kompania OpenAI.
Si Grok, ashtu dhe ChatGPT dhe modele të tjera të ngjashme nuk mund të garantojnë se përgjigjet që japin ndaj pyetjeve të shtruara, janë të sakta.
Karolina Ewa Stanczak, hulumtuese në Qendrën për Inteligjencë Artificiale në Universitetin ETH të Cyrihut, thotë se problemi prapa kësaj qëndron te mënyra se si këto modele ndërtohen.
“Baza dhe thelbi i tyre është kryesisht një sasi e madhe teksti që ato shohin. Mund të imagjinoni që në disa gjuhë mund të gjenden tekste të ndryshme, opinione të ndryshme, këndvështrime të ndryshme mbi të njëjtën temë”, thotë Stanczak për Radion Evropa e Lirë.
Pra, nëse kur kërkohet për Kosovën në serbisht, shumica e materialit të publikuar online thotë se “Kosova është Serbi”, atëherë ato postime grumbullohen nga modeli i inteligjencës artificiale, që formulon një përgjigje bazuar në to.
Por, Stanczak tregon se zhvilluesit e këtyre modeleve kanë mundësi t’i luftojnë keqinformimet duke vendosur disa kontrolle që u tregojnë modeleve se si të sillen.
“Nëse po mblidhen të dhëna për trajnimin e modeleve gjuhësore, të dhënat duhet të kalojnë nëpër kontrolle për dezinformata”, thotë ajo.
Megjithatë, në këtë çështje ajo sheh disa probleme.
Së pari, këto modele nuk duhet patjetër t’ua japin të gjithëve përgjigjen e njëjtë. Ta zëmë se dikush në Kosovë pyet se sa larg është një vend nga Prishtina, përgjigjja është më mirë të jepet në kilometra, që përdoren në Kosovë për matjen e distancës, sesa në milje.
“Ka një vijë të hollë mes faktit që përdorues të ndryshëm do të kenë nevoja të ndryshme, prandaj modelet duhet t’u japin përgjigje të ndryshme, por, njëkohësisht, nuk duam që njerëzit të mbeten të ngujuar në një flluskë informacioni apo dezinformate”, thotë Stanczak.
Problemet e tjera? Ajo thotë se, si fushë e re, ka shumë pak mbikëqyrje dhe kufizime mbi modelet e ndryshme të inteligjencës artificiale dhe shumë nga përdoruesit e tyre nuk e kanë të qartë se si funksionojnë ato.
Kjo është veçanërisht e vërtetë në Kosovë, thotë Hyrije Mehmeti, ligjëruese në Universitetin e Prishtinës dhe pjesë e platformës për identifikimin e dezinformatave, Hibrid.info.
Ajo thotë se në Kosovë, ku përdorimi i modelit ChatGPT është i theksuar, niveli i edukimit digjital lë shumë për të dëshiruar.
Në muajt e fundit, gazetarët e Radios Evropa e Lirë kanë hasur në mjekë që përdorin modelin ChatGPT për të diagnostikuar e trajtuar pacientë, mësimdhënës që e përdorin atë për testim të nxënësve, e shumë raste të tjera të ngjashme.
Gjatë hulumtimeve për tema të ndryshme, ChatGPT shpeshherë ka bërë pretendime që më vonë kanë rezultuar të pavërteta.
Edhe Mehmeti thekson se këto sisteme, “për shkak të mënyrës se si trajnohen dhe burimeve të të dhënave që përdorin, shpeshherë japin përgjigje të pasakta ose kontradiktore”.
“Për qytetarët, veçanërisht ata të moshës së tretë apo ata që nuk kanë aftësi të zhvilluara në edukimin digjital, kjo mund të nxisë konfuzion, të dëmtojë besimin publik dhe madje të ndikojë në perceptimin e realitetit politik dhe shoqëror”, thotë Mehmeti për Radion Evropa e Lirë.
Për këtë arsye, ajo sugjeron që institucionet në Kosovë të organizojnë trajnime dhe fushata ndërgjegjësuese për inteligjencën artificiale dhe rreziqet potenciale nga ajo, si dhe të bëhet verifikimi i informacionit para shpërndarjes më të madhe të tij.
“Në Kosovë ende është duke u folur për futjen e edukimit medial si lëndë të rregullt në shkolla dhe tashmë ka lindur nevoja edhe për edukimin digjital. Është shumë e rëndësishme veçanërisht për zhvillimin e mendimit kritik”, shton Mehmeti.
Si pjesë e Hibrid.info, ajo ka parë shpeshherë se si fotografi e video të krijuara me inteligjencë artificiale janë marrë për të vërteta nga shumë qytetarë dhe janë bërë virale në rrjete sociale.
“Kjo është shumë shqetësuese, sepse informacione jo të vërteta po merren si të vërteta nga qytetarët”, thotë Mehmeti.
“Në thelb, inteligjenca artificiale mund të jetë një mjet i fuqishëm, por pa aftësi të forta të edukimit mediatik e digjital, qytetarët mbeten të pambrojtur ndaj dezinformimit të gjeneruar apo të amplifikuar nga këto teknologji”, përfundon ajo.