Pavarësisht nëse bëhet fjalë për këshilla gatimi ose ndihmë me një fjalim, ChatGPT është “shpëtimi” për shumë njerëz.
Tregojini ChatGPT-së përbërësit dhe ai do t’ju japë një recetë. Me 3-4 fjalë kyce, ChatGPT mund të krijojë një ese ose një fjalim. Por sa e nevojshme është kjo?
Akademikët, studiuesit e sigurisë kibernetike dhe ekspertët e AI paralajmërojnë se ChatGPT mund të përdoret për keqinformim dhe për të përhapur propagandë në mediat sociale.
Deri më tani, përhapja e dezinformatave kërkonte punë të konsiderueshme njerëzore. Por një inteligjencë artificiale si ChatGPT do ta bënte shumë më të lehtë për të përhapur shpejt informacionet, edhe ato të pavërtetit, sipas një raporti nga Universiteti Georgetown, Stanford.
Sistemet e sofistikuara të përpunimit të gjuhës si ChatGPT mund të ndikojnë në të ashtuquajturat “operacione të ndikimit në mediat sociale”.
Fushata të tilla synojnë të shmangin kritikat dhe të lënë në rrjetet sociale të politikanëve apo njerëzve të famshëm vetëm komente dhe reagime pozitive. Duke përdorur llogari të rreme, njerëzit që janë pjesë e këtyre fushatave përhapin keqinformim në mediat sociale.
Një fushatë e tillë u nis në prag të zgjedhjeve të vitit 2016 në SHBA.
Mijëra llogari në Twitter, Facebook, Instagram dhe YouTube të krijuara nga Agjencia e Kërkimeve të Internetit në Shën Petersburg, të fokusuara në dëmtimin e fushatës së Hillary Clinton dhe mbështetjen e Donald Trump, përfunduan në Komisionin e Senatit për Inteligjencën në 2019.
Me kalimin e viteve ka përparuar edhe “keq informimi”.
“Potenciali i modeleve gjuhësore për të rivalizuar përmbajtjen e shkruar nga njeriu tregon se këto modele, si çdo teknologji e fuqishme, mund të ofrojnë avantazhe për personat që bëjnë propagandë, sidomos gjatë zgjedhjeve”, shkruhet në raportin e AI.
“Këto avantazhe mund të zgjerojnë aksesin në një numër më të madh personash, të mundësojnë taktika të reja ndikimi dhe të bëjnë mesazhet e një fushate shumë më të përshtatura dhe potencialisht efektive”, paralajmëron raporti.
Nuk është vetëm sasia e dezinformatave që mund të rritet, por është edhe cilësia.
“Sistemet e inteligjencës artificiale mund të përmirësojnë cilësinë bindëse të përmbajtjes dhe t’i bëjnë ato mesazhe të vështira për t’u njohur nga përdoruesit e zakonshëm të internetit si pjesë e fushatave të koordinuara të dezinformimit”, thotë Josh Goldstein, studiues në Qendrën për Sigurinë kibernetike ne Emerging Technology.
“Modelet e gjuhës gjeneruese mund të prodhojnë një vëllim të madh përmbajtjeje që është origjinale çdo herë dhe të lejojnë çdo propagandues të mos mbështetet në kopjimin dhe ngjitjen e të njëjtit tekst nëpër llogaritë e mediave sociale ose faqet e lajmeve”, thotë ai.
Goldstein vazhdon duke thënë se nëse një platformë mbushet me informacione ose propagandë të pavërtetë, do ta bëjë më të vështirë për publikun të dallojë se çfarë është e vërtetë. Shpesh, ky mund të jetë qëllimi i atyre “aktorëve të këqij” që marrin pjesë në operacionet e ndikimit.
“Tani për tani, një numër i vogël firmash ose qeverish zotërojnë modele gjuhësore të nivelit të lartë, të cilat janë të kufizuara në detyrat që mund të kryejnë me besueshmëri dhe në gjuhët që nxjerrin. Nëse më shumë aktorë investojnë në modele gjeneruese më të fundit, atëherë kjo mund të rrisë shanset që propagandistët të kenë akses në to”, shkruhet në raport.
Gary Marcus, specialist i AI thotë se njerëzit që përhapin mesazhe të padëshiruara mbështeten te ‘publiku’ për të klikuar në lidhjet e tyre dhe luten për të arritur sa më shumë njerëz që të jetë e mundur. Por me ChatGPT gjithë kjo bëhet shumë më e thjeshtë dhe diçka e sigurt.
Për më tepër, edhe nëse platforma të tilla si Twitter dhe Facebook heqin tre të katërtat e asaj që ata njerëz shpërndajnë në profilet e tyre, “ka ende të paktën 10 herë më shumë përmbajtje se më parë që mund të synojë të mashtrojë njerëzit në internet”, thotë Marcus.
Rritja e llogarive të rreme të mediave sociale ka filluar prej kohësh dhe ChatGPT vetëm sa do ti shtojë ato.
“Diçka si ChatGPT mund të shtojë përhapjen e llogarive të rreme në një nivel që nuk e kemi parë më parë”, thotë Vincent Conitzer, profesor i shkencave kompjuterike në Universitetin Carnegie Mellon,
Ai tha se shumë shpejt mund të bëhet e vështirë të dallohet se cila llogari është e vërtetë dhe cila jo.
Burimi: BBC. Përshtati: Gazeta Si.
Copyright © Gazeta “Si”
Të gjitha të drejtat e këtij materiali janë pronë ekskluzive dhe e patjetërsueshme e Gazetës “Si”, sipas Ligjit Nr.35/2016 “Për të drejtat e autorit dhe të drejtat e tjera të lidhura me to”. Ndalohet kategorikisht kopjimi, publikimi, shpërndarja, tjetërsimi etj, pa autorizimin e Gazetës “Si”, në të kundërt çdo shkelës do mbajë përgjegjësi sipas nenit 179 të Ligjit 35/2016.
.png)



