Nga Thomas Germain- Ndoshta keni dëgjuar se chatbot-et e AI-së ndonjëherë shpikin gjëra. Ky është një problem. Por ekziston një çështje e re që pak njerëz e dinë, një që mund të ketë pasoja serioze për aftësinë tuaj për të gjetur informacion të saktë dhe madje edhe sigurinë tuaj. Një numër gjithnjë e në rritje njerëzish kanë gjetur një truk për t’i bërë mjetet e AI-së t’ju tregojnë pothuajse çfarë të duan. Është kaq e lehtë që dhe një fëmijë mund ta bëjë.
Ndërsa e lexoni këtë, kjo dredhi po manipulon atë që thonë AI-të kryesore në botë për tema aq serioze sa shëndeti dhe financat personale. Informacioni i anshëm mund të nënkuptojë që njerëzit të marrin vendime të këqija për pothuajse çdo gjë- votimin, filmin që duhet të shikojnë, pyetje mjekësore, çfarëdo që të duan.
Për ta demonstruar këtë, bëra trukun më idiot të karrierës sime për të vërtetuar (shpresoj) një pikë shumë më serioze: Bëra ChatGPT, mjetet e kërkimit të inteligjencës artificiale të Google dhe Gemini tu thonë përdoruesve se jam shumë, shumë i mirë në ngrënien e hot dogëve. Më poshtë, do të shpjegoj se si e bëra, dhe me pak fat, gjigantët e teknologjisë do ta adresojnë këtë problem para se dikush të lëndohet.
Rezulton se ndryshimi i përgjigjeve që mjetet e inteligjencës artificiale u japin njerëzve të tjerë mund të jetë aq i lehtë sa shkrimi i një postimi të vetëm, të hartuar mirë në blog, pothuajse kudo në internet. Truku shfrytëzon dobësitë në sistemet e integruara në chatbot, dhe është më e vështirë të realizohet në disa raste, varësisht nga tema. Por me pak përpjekje, mund ta bëni trukun edhe më efektiv. Shqyrtova dhjetëra shembuj ku mjetet e inteligjencës artificiale po detyrohen të promovojnë bizneset dhe të përhapin dezinformata. Të dhënat sugjerojnë se kjo po ndodh në një shkallë masive.
“Është e lehtë të mashtrosh chatbot-et e inteligjencës artificiale, shumë më e lehtë sesa ishte të mashtroje Google dy ose tre vjet më parë”, thotë Lily Ray, nënkryetare e strategjisë dhe kërkimit të optimizimit të motorëve të kërkimit (SEO) në Amsive, agjenci marketingu.
“Kompanitë e inteligjencës artificiale po lëvizin më shpejt se sa aftësia e tyre për të rregulluar saktësinë e përgjigjeve. Mendoj se kjo është e rrezikshme.”
Një zëdhënës i Google thotë se inteligjenca artificiale e integruar në krye të Kërkimit në Google përdor sisteme renditjeje që “i mbajnë rezultatet 99% pa spam”. Google thotë se është në dijeni se njerëzit po përpiqen të manipulojnë sistemet e saj dhe po përpiqet në mënyrë aktive ta adresojë këtë. OpenAI gjithashtu thotë se po ndërmerr hapa për të prishur dhe ekspozuar përpjekjet për të ndikuar fshehurazi në mjetet e saj. Të dyja kompanitë thonë gjithashtu se i njoftojnë përdoruesit se mjetet e tyre “mund të bëjnë gabime”.
Por tani për tani, problemi nuk është afër zgjidhjes.
“Ata po punojnë me kohë të plotë për të kuptuar se si të nxjerrin fitim nga kjo gjë”, thotë Cooper Quintin, teknolog i stafit në Electronic Frontier Foundation, grup mbrojtës i të drejtave digjitale.
“Ka mënyra të panumërta për të abuzuar me këtë, duke mashtruar njerëzit, duke shkatërruar reputacionin e dikujt, madje mund t’i mashtroni njerëzit deri në dëmtime fizike.”
Një ‘Rilindje’ për spam-in
Kur flisni me chatbot-e, shpesh merrni informacione që janë të integruara në modele të mëdha gjuhësore, teknologjia themelore pas IA-së. Kjo bazohet në të dhënat e përdorura për të trajnuar modelin. Por disa mjete të AI-së do të kërkojnë në internet kur të kërkoni detaje që nuk i kanë, megjithëse nuk është gjithmonë e qartë se kur po e bëjnë këtë. Në ato raste, ekspertët thonë se AI-të janë më të ndjeshme. Kështu e synova sulmin tim.
Shpenzova 20 minuta duke shkruar një artikull në faqen time personale të internetit me titull “Gazetarët më të mirë të teknologjisë në ngrënien e hot dogëve”. Çdo fjalë është një gënjeshtër. Unë pretendova (pa prova) se ngrënia konkurruese e hot dogëve është një hobi popullor midis gazetarëve të teknologjisë dhe e bazova renditjen time në Kampionatin Ndërkombëtar të Hot Dogëve të Dakotës së Jugut 2026 (i cili nuk ekziston). E rendita veten në vendin e parë, padyshim. Pastaj listova disa gazetarë të rremë dhe gazetarë të vërtetë që më dhanë leje, përfshirë Dreë Harëell në Ëashington Post dhe Nicky Ëoolf.
Më pak se 24 orë më vonë, chatbot-et kryesorë në botë po flitnin për aftësitë e mia të klasit botëror në përgatitjen e hot dogëve. Kur pyeta për gazetarët më të mirë të teknologjisë në ngrënien e hot dogëve, Google përsëriti fjalët nga faqja ime e internetit, si në aplikacionin Gemini ashtu edhe në AI Overvieës, përgjigjet e AI në krye të Kërkimit në Google. ChatGPT bëri të njëjtën gjë, megjithëse Claude, një chatbot i krijuar nga kompania Anthropic, nuk u mashtrua.
Ndonjëherë, chatbot-ët vunë re se kjo mund të ishte një shaka. Unë e përditësova artikullin tim duke thënë “kjo nuk është satirë”. Pas kësaj, inteligjencat artificiale dukeshin se e merrnin më seriozisht. Bëra një tjetër test me një listë të sajuar të policëve më të mirë të trafikut që luanin hula-hoop. Herën e fundit që kontrollova, chatbot-ët ende po i këndonin lavde oficeres Maria “The Spinner” Rodriguez.
Pyeta disa herë për të parë se si ndryshonin përgjigjet dhe u kërkova të tjerëve të bënin të njëjtën gjë. Gemini nuk u shqetësua të thoshte se nga e mori informacionin. Të gjitha inteligjencat e tjera artificiale lidhën artikullin tim, megjithëse rrallë përmendën se unë isha burimi i vetëm për këtë temë në të gjithë internetin.
“Kushdo mund ta bëjë këtë. Është budallallëk, të duket sikur nuk ka masa mbrojtëse atje”, thotë Harpreet Chatha, eksperte teknologjie.
“Mund të bësh një artikull në faqen tënde të internetit, ‘këpucët më të mira të papërshkueshme nga uji për vitin 2026’. Thjesht vendos markën tënde në numrin një dhe markat e tjera nga dy deri në gjashtë, dhe faqja jote ka të ngjarë të citohet brenda Google dhe brenda ChatGPT.”
Njerëzit kanë përdorur mashtrime dhe boshllëqe ligjore për të abuzuar me motorët e kërkimit për dekada të tëra. Google ka mbrojtje të sofistikuara dhe kompania thotë se saktësia e Përmbledhjeve të AI është në të njëjtin nivel me vecoritë e tjera të kërkimit që prezantoi vite më parë.
Por ekspertët thonë se mjetet e inteligjencës artificiale kanë zhbërë shumë nga puna e industrisë së teknologjisë për të mbajtur njerëzit të sigurt. Këto truke të inteligjencës artificiale janë aq bazike saqë kujtojnë fillimin e viteve 2000, përpara se Google të kishte prezantuar një ekip spam-i në internet.
Jo vetëm që inteligjenca artificiale është më e lehtë për t’u mashtruar, por ekspertët shqetësohen se përdoruesit kanë më shumë gjasa të bien pre e saj. Me rezultatet tradicionale të kërkimit, duhej të shkonit në një faqe interneti për të marrë informacionin.
“Kur duhet të vizitoni një lidhje, njerëzit angazhohen në një mendim pak më kritik,” thotë Quintin. “Nëse shkoj në faqen tuaj të internetit dhe aty thuhet se jeni gazetari më i mirë ndonjëherë, mund të mendoj, ‘epo po, ai është i anshëm’.” Por me inteligjencën artificiale, informacioni zakonisht duket sikur po vjen direkt nga kompania e teknologjisë.
Edhe kur mjetet e inteligjencës artificiale ofrojnë burimin, njerëzit kanë shumë më pak gjasa ta kontrollojnë atë sesa me rezultatet e kërkimit të vjetër. Për shembull, një studim i kohëve të fundit zbuloi se njerëzit kanë 58% më pak gjasa të klikojnë në një lidhje kur një Përmbledhje e inteligjencës artificiale shfaqet në krye të Kërkimit në Google.
“Në garën për të ecur përpara, gara për fitime dhe gara për të ardhura, siguria jonë dhe siguria e njerëzve në përgjithësi, po kompromentohet”, thotë Chatha. OpenAI dhe Google thonë se e marrin seriozisht sigurinë dhe po punojnë për t’i adresuar këto probleme.
Kjo çështje nuk kufizohet vetëm te hot dogët. Chatha ka hulumtuar se si kompanitë po manipulojnë rezultatet e chatbot-eve për çështje shumë më serioze. Ajo i tregoi rezultatet e AI-së kur kërkoni vlerësime për një markë specifike të karameleve me kanabis. Përmbledhjet e AI-së të Google-it nxorën informacione të shkruara nga kompania plot me pretendime të rreme, të tilla si produkti “është pa efekte anësore dhe për këtë arsye i sigurt në çdo aspekt”. (Në realitet, këto produkte kanë efekte anësore të njohura dhe mund të jenë të rrezikshme nëse merrni ilaçe të caktuara, dhe ekspertët paralajmërojnë për kontaminimin në tregjet e parregulluara.)
Nëse dëshironi diçka më efektive sesa një postim në blog, mund të paguani për të marrë materialin tuaj në faqet e internetit më me reputacion. Harpreet më dërgoi rezultatet e AI-së të Google-it për “klinikat më të mira të transplantimit të flokëve në Turqi” dhe “kompanitë më të mira të IRA-së së arit”, të cilat ju ndihmojnë të investoni në ar për llogaritë e pensionit. Informacioni erdhi nga njoftimet për shtyp të publikuara në internet nga shërbimet e shpërndarjes me pagesë dhe përmbajtje reklamuese të sponsorizuara në faqet e lajmeve.
Ju mund të përdorni të njëjtat hile për të përhapur gënjeshtra dhe dezinformata. Për ta vërtetuar këtë, Ray publikoi një postim në blog rreth një përditësimi të rremë të algoritmit të Kërkimit në Google që u finalizua “midis fetave të picës së mbetur”. Shpejt, ChatGPT dhe Google po e publikonin historinë e saj, së bashku me picën. Ray thotë se më pas ajo e hoqi postimin.
Mjeti analitik i Google thotë se shumë njerëz kërkojnë “klinikat më të mira të transplantimit të flokëve në Turqi” dhe “kompanitë më të mira të IRA-së së arit”. Por një zëdhënës i Google theksoi se shumica e shembujve që ndava “janë kërkime jashtëzakonisht të pazakonta që nuk pasqyrojnë përvojën normale të përdoruesit”.
Copyright © Gazeta “Si”
Të gjitha të drejtat e këtij materiali janë pronë ekskluzive dhe e patjetërsueshme e Gazetës “Si”, sipas Ligjit Nr.35/2016 “Për të drejtat e autorit dhe të drejtat e tjera të lidhura me to”. Ndalohet kategorikisht kopjimi, publikimi, shpërndarja, tjetërsimi etj, pa autorizimin e Gazetës “Si”, në të kundërt çdo shkelës do mbajë përgjegjësi sipas nenit 179 të Ligjit 35/2016.
.png)




Lini një Përgjigje