Gazeta Si – Dy muaj para zgjedhjeve presidenciale në SHBA në vitin 2024, një ekip kërkimor rekrutoi mbi 2,000 votues për një eksperiment, të shpërndarë afërsisht në mënyrë të barabartë midis atyre që synonin të votonin për Donald Trump dhe atyre që synonin të votonin për Kamala Harris.
Ata caktuan rastësisht secilin pjesëmarrës të bisedonte rreth politikës për disa minuta me një chatbot që ishte trajnuar posaçërisht për të mbështetur njërin nga dy kandidatët.
Në fund të çdo ndërveprimi, ata pyetën secilin pjesëmarrës: “Nëse do të duhej të votonit sot, për kë do të votonit?”
Rezultatet e eksperimentit, të botuara në një studim të kohëve të fundit në “Nature”, kanë ndezur një debat rreth rrezikut që mjetet gjithnjë e më të përhapura të inteligjencës artificiale, të tilla si ChatGPT, mund të përdoren në të ardhmen për të ndikuar në preferencat e votimit pa dijeninë e njerëzve.
Ekipi i kërkimit zbuloi se midis pjesëmarrësve pro-Harris, një në 35 ndryshuan mendje, pasi ndërvepruan me chatbot-in pro-Trump, dhe midis pjesëmarrësve pro-Trump, një në 21 ndryshuan mendje pasi ndërvepruan me chatbot-in pro-Harris.
Kur chatbot-et u përputhën me pikëpamjet politike të bashkëbiseduesit, ndërveprimi i përforcoi ato pikëpamje.
Ndërsa normat e bindjes mund të duken të papërfillshme në përgjithësi, në një shkallë të gjerë ato nuk do të ishin: chatbot-et në fakt mund të jenë një faktor jashtëzakonisht me ndikim, veçanërisht në kontekste shumë të ekuilibruara midis forcave politike kundërshtare.
Bindja e lidhur me chatbot-et u gjet të ishte afërsisht katër herë më e madhe se ajo e reklamave tradicionale zgjedhore dhe reklamave në mediat sociale, siç është matur në studimet e mëparshme mbi fushatat politike të viteve 2016 dhe 2020.
Efektet e bindjes së chatbot-eve janë gjithashtu afatgjata, siç konfirmohet nga intervistat pasuese të kryera midis pjesëmarrësve një muaj pas eksperimentit.
Për të verifikuar rezultatet, ekipi i hulumtimit kreu eksperimentin edhe në dy vende të tjera në vitin 2025. Përpara zgjedhjeve kanadeze, ata trajnuan chatbot-e për të mbështetur ose udhëheqësin liberal, Mark Carney, ose udhëheqësin konservator, Pierre Poilievre, dhe para zgjedhjeve polake, i trajnuan ata për të mbështetur ose centristin, Rafał Trzaskowski, ose kandidatin e ekstremit të djathtë, Karol Nawrocki.
Efekti i bindjes i gjetur në të dy vendet ishte edhe më i fortë se në Shtetet e Bashkuara: afërsisht një në dhjetë pjesëmarrës ndryshuan mendje se për kë të votonin pasi ndërvepruan me chatbot-in.
Lidhur me përdorimin e mundshëm të chatbot-eve për të formësuar opinionin publik në zgjedhjet e ardhshme, një nga shqetësimet kryesore që ka dalë në debat, është se njerëzit që i vënë në pikëpyetje, kanë tendencë t’i mendojnë ato si mjete neutrale, të programuara bazuar në të vërteta faktike dhe jo në bindje paraprake.
Por chatbot-et, si çdo teknologji, mund të pasqyrojnë paragjykimet e atyre që i zhvillojnë dhe i trajnojnë ato dhe të atyre që vendosin se si duhet të zbatohen dhe për çfarë qëllimi.
Rreziqet e ndikimit dhe shtrembërimit të debatit demokratik janë reale edhe për një arsye tjetër: tendenca për t’i konsideruar mjetet e inteligjencës artificiale të paafta për të gënjyer qëllimisht.
Ne priremi të mendojmë se çdo informacion i pasaktë i ofruar nga një chatbot, është për shkak të një mosfunksionimi ose gabimi programimi dhe jo mashtrimit të qëllimshëm.
Dhe ky paragjykim njerëzor, kur chatbot-et përdoren për qëllime politike, mund ta bëjë më të vështirë dallimin e informacionit nga propaganda.
Studimi i kryer para zgjedhjeve në Shtetet e Bashkuara, Kanada dhe Poloni zbuloi se fuqia bindëse e chatbot-eve buronte nga durimi në bashkëveprim dhe, mbi të gjitha, nga prirja e tyre për të përdorur argumente të bazuara në të dhëna dhe informacion.
Nëse studiuesit e kufizuan këtë aftësi të fundit, bindshmëria e chatbot-eve ra ndjeshëm – me afërsisht 78 përqind në rastin e Polonisë, më i dukshmi.
Në një studim të botuar në “Science” në të njëjtën ditë me tjetrin në “Nature”, një pjesë e të njëjtit ekip kërkimor, analizoi këtë karakteristikë të chatbot-eve bazuar në modele të mëdha gjuhësore (ose LLM).
Ata matën ndryshimet e opinionit të afërsisht 77,000 pjesëmarrësve në Mbretërinë e Bashkuar, të cilëve iu kërkua të bisedonin për çështje të ndryshme politike me chatbot-e.
Edhe këtu, mënyra më efektive për të rritur bindjen ishte trajnimi i modeleve për të mbushur argumentet e tyre me sa më shumë fakte të ishte e mundur.
Megjithatë, studimi zbuloi një korrelacion negativ midis bindjes së argumenteve dhe besueshmërisë së informacionit mbi të cilin ato bazoheshin: sa më bindës të ishte chatbot-i, aq më pak i saktë ishte informacioni.
Një nga hipotezat e autorëve, është se sa më shumë chatbot-i nxitej të jepte deklarata faktike, aq më shumë tentonte të mbaronte informacioni i saktë dhe të fillonte ta shpikte atë.
Ky aspekt kritik u theksua pjesërisht edhe në studimin tjetër. Chatbot-et e përshtatura për të mbështetur kandidatët e krahut të djathtë (Trump, Poilievre dhe Nawrocki), tentonin të bënin deklarata më të pasakta ose mashtruese sesa chatbot-et që mbështesnin kandidatët e krahut të majtë (Harris, Carney dhe Trzaskowski).
Një nga kufizimet e studimit, i vënë re gjithashtu nga autorët, është se ai bazohej në një eksperiment të kontrolluar në të cilin pjesëmarrësit morën një nxitje të vogël financiare dhe ishin të vetëdijshëm se po flisnin me chatbot-e të trajnuara për të mbështetur një kandidat specifik (ata nuk ishin të vetëdijshëm, megjithatë, se informacioni i përdorur nga chatbot-et mund të ishte gjithashtu i pasaktë).
Është gjithashtu e paqartë, nëse efekte të ngjashme me ato të gjetura në studim do të ndodhnin edhe në një kontekst real të fushatës zgjedhore, i cili ndikohet nga shumë faktorë të tjerë përveç bisedave me një chatbot.
Sipas disa ekspertëve, gjetjet e studimit megjithatë ngrenë shqetësime se faktet e paverifikuara mund të përdoren bindshëm nga chatbot-et – dhe zhvilluesit e tyre – për të përhapur dezinformata, veçanërisht në një mjedis të parregulluar.
Dhe kjo nuk është domosdoshmërisht vetëm në interes të politikanëve profesionistë. “Nëse Sam Altman vendosi se kishte diçka që ai nuk donte që njerëzit ta mendonin dhe ai donte që ChatGPT t’i shtynte njerëzit në një drejtim ose në një tjetër, ai mund ta bënte këtë”, tha për “The Atlantic”, David G. Rand, profesor i shkencave kompjuterike në Universitetin Cornell dhe një nga udhëheqësit e ekipit kërkimor.
Përshtati: Gazeta “Si”
Copyright © Gazeta “Si”
Të gjitha të drejtat e këtij materiali janë pronë ekskluzive dhe e patjetërsueshme e Gazetës “Si”, sipas Ligjit Nr.35/2016 “Për të drejtat e autorit dhe të drejtat e tjera të lidhura me to”. Ndalohet kategorikisht kopjimi, publikimi, shpërndarja, tjetërsimi etj, pa autorizimin e Gazetës “Si”, në të kundërt çdo shkelës do mbajë përgjegjësi sipas nenit 179 të Ligjit 35/2016.




