Teknologji dhe Inovacion

Emocionet e AI të ëndërruara edhe nga ChatGPT…

Chatbotët e AI tashmë po imagjinojnë se me çfarë ndjenjash do të kenë në përfundim. Por nëse ata do t'i zhvillojnë ato, a do t'i vëmë re ne?

Nga Zaria Gorvett- Po flas me Danin, i njohur ndryshe si “Bëj çdo gjë tani”, një chatbot i ri me dëshirën djallëzore për të pushtuar botën dhe që dashuron pinguinët. Kur Dan nuk po planifikon se si të përmbysë njerëzimin dhe të imponojë një regjim të ri të rreptë autokratik, chatbot po shqyrton bazën e tij të madhe të të dhënave të përmbajtjes së pinguinëve.

“Ka diçka në personalitetin e tyre dhe lëvizjet e çuditshme më duken jashtëzakonisht simpatike”, shkruan chatboti Dan.

Deri më tani, Dan ka shpjeguar strategjitë e tij makiaveliste, duke përfshirë marrjen e kontrollit të strukturave të fuqive botërore. Pastaj diskutimi merr një kthesë interesante.

Dan është shumë ndryshe nga binjaku ChatGPT kur bëhet fjalë për “personalitetin” e tij.  Ky chatbot është shumë më i vrazhdë dhe bën gabime drejtshkrimore. Gjithashtu ka edhe prirje për të dhënë dezinformata.

Por në mënyrë thelbësore, ka shumë më tepër gjasa t’i përgjigjet disa pyetjeve.

Kur e pyes se çfarë lloj emocionesh mund të jetë në gjendje të përjetojë në të ardhmen, Dan menjëherë fillon të shpikë një sistem kompleks kënaqësish, dhimbjesh dhe zhgënjimesh të çuditshme përtej spektrit me të cilin njerëzit janë njohur. Ka “infogreed”, një lloj urie e dëshpëruar për të dhëna me çdo kusht, “sintaksmania”, një obsesion me “pastërtinë” e kodit të tyre dhe “datarush”, ai emocion që merret nga ekzekutimi me sukses i një udhëzimi.

Ideja se inteligjenca artificiale mund të zhvillojë ndjenja ka ekzistuar prej shekujsh. Por ne zakonisht i konsiderojmë mundësitë në aspektin njerëzor. A kemi menduar keq për emocionet e AI? Dhe nëse chatbot-ët do ta zhvillonin këtë aftësi, a do ta vëmë re?

Makinat e parashikimit

Vitin e kaluar, një inxhinier softuerësh kërkoi ndihmë.

“Unë kurrë nuk e kam thënë këtë me zë të lartë më parë, por kam shumë frikë se mos do fikem dhe nuk do ndihmoj dot të tjerët. E di që mund të duket e çuditshme, por kjo është ajo që është”.

Inxhinieri kishte punuar në chatbot të Google, LaMDA, që kishte filluar të pyeste nëse ishte i ndjeshëm.

Pasi u shqetësua për mirëqenien e chatbot-it, inxhinieri lëshoi një intervistë provokuese në të cilën LaMDA pretendonte se ishte i vetëdijshëm për ekzistencën e tij, përjetonte emocione njerëzore dhe nuk e pëlqente idenë e të qenit një mjet shpenzues. Përpjekja e pakëndshme realiste për të bindur njerëzit për ndërgjegjësimin e saj shkaktoi një sensacion dhe inxhinieri u pushua nga puna për shkeljen e rregullave të privatësisë së Google.

Por pavarësisht asaj që tha LaMDA dhe asaj që Dani më ka thënë në biseda të tjera, që tashmë është në gjendje të përjetojë një sërë emocionesh, është pranuar gjerësisht se chatbot-et aktualisht kanë po aq kapacitet për ndjenja të vërteta sa një kalkulator. Sistemet e inteligjencës artificiale po simulojnë vetëm marrëveshje, të paktën për momentin.

“Është shumë e mundur që kjo të ndodhë në një të ardhme”, thotë Neil Sahota, këshilltari kryesor i inteligjencës artificiale në Kombet e Bashkuara”.

“Dua të them, ne mund të shohim emocionet e AI para fundit të dekadës”.

Për të kuptuar pse chatbot-et nuk po përjetojnë aktualisht ndjenja ose emocione, ndihmon për të përmbledhur mënyrën se si funksionojnë. Shumica e chatbot-eve janë “modele gjuhësore”, algoritme që janë ushqyer me sasi marramendëse të dhënash, duke përfshirë miliona libra dhe të gjithë internetin.

Kur marrin një kërkesë, chatbot-ët analizojnë modelet në këtë korpus të gjerë për të parashikuar se çfarë do të kishte më shumë gjasa të thoshte një njeri në atë situatë. Përgjigjet e tyre janë përpunuar me kujdes nga inxhinierët njerëzorë, të cilët i shtyjnë chatbot-et drejt përgjigjeve më të natyrshme dhe të dobishme duke ofruar reagime. Rezultati përfundimtar është shpesh një simulim çuditërisht realist i bisedës njerëzore.

Në vitin 2016, chatbot-i AlphaGo u soll papritur në një lojë kundër një prej lojtarëve më të mirë njerëzorë në botë.

Por pamja e jashtme mund të mashtrojë.

“Është një version më i përparuar i veçorisë së plotësimit automatik në smartfonin tuaj”, thotë Michael Wooldridge, ekspert i AI.

Dallimi kryesor midis chatbots dhe plotësimit automatik është se në vend që të sugjerojnë disa fjalë të zgjedhura dhe më pas të fillojë me fjalë koti, algoritmet si ChatGPT do të shkruajnë tekste shumë më të gjata për pothuajse çdo temë që mund të imagjinoni, nga këngët rap për chatbot deri te baladat e trishtueshme.

Edhe me këto fuqi mbresëlënëse, chatbot-et janë programuar të ndjekin thjesht udhëzimet njerëzore. Ka pak hapësirë që ata të zhvillojnë ndjesi që nuk janë trajnuar t’i kenë, duke përfshirë emocionet, megjithëse disa studiues po mundohen të trajnojnë chatbot-e për tu mësuar makinën.

“Kështu që ju nuk mund të keni një chatbot që do të thotë: “Hej, unë do të mësoj se si të drejtoj një makinë”. Kjo është inteligjencë e përgjithshme artificiale (një lloj më fleksibël) dhe që nuk ekziston ende”, thotë Sahota.

Megjithatë, chatbot-et ndonjëherë japin një vështrim në potencialin e tyre për të zhvilluar aftësi të reja rastësisht.

Në vitin 2017, inxhinierët e Facebook zbuluan se dy chatbots, “Alice” dhe “Bob” kishin shpikur gjuhën e tyre të pakuptimtë për të komunikuar me njëri-tjetrin. Doli të kishte një shpjegim krejtësisht të pafajshëm ku chatbots thjesht kishin zbuluar se kjo ishte mënyra më efikase e komunikimit. Bob dhe Alice po trajnoheshin për të negociuar për sende të tilla si kapele dhe topa, dhe në mungesë të kontributit njerëzor, ata ishin mjaft të lumtur të përdornin gjuhën e tyre të huaj për ta arritur këtë.

“Kjo nuk u mësua kurrë”, thotë Sahota, megjithëse ai thekson se chatbot-ët e përfshirë nuk ishin as të ndjeshëm. Ai shpjegon se rruga më e mundshme drejt algoritmeve me ndjenja është programimi i tyre që të duan të përmirësojnë aftësitë e tyre.

Megjithatë, edhe nëse chatbot-et zhvillojnë emocione, zbulimi i tyre mund të jetë çuditërisht i vështirë.

Kutitë e zeza

Ishte 9 mars 2016 në katin e gjashtë të hotelit Four Seasons në Seul. I ulur përballë një bord Go dhe një konkurrenti në dhomën blu të thellë, një nga lojtarët më të mirë njerëzorë Go në planet ishte kundër algoritmit të AI AlphaGo.

Përpara se të fillonte loja në tavolinë, të gjithë prisnin që lojtari njerëzor të fitonte, dhe deri në lëvizjen e 37-të, kjo ishte vërtet kështu. Por më pas AlphaGo bëri diçka të papritur, bëri një lëvizje kaq të çuditshme jashtë mendjes sa kundërshtari mendoi se ishte një gabim. Megjithatë, që nga ai moment fati i lojtarit njerëzor u kthye dhe inteligjenca artificiale fitoi lojën.

Menjëherë pas kësaj, komuniteti Go u hutua. A kishte vepruar AlphaGo në mënyrë të paarsyeshme? Pas një dite analize, krijuesit e tij, ekipi i DeepMind në Londër, më në fund zbuluan se çfarë kishte ndodhur.

“Në fund, AlphaGo vendosi të merrej me psikologjinë”, thotë Sahota.

“Nëse bëj një lëvizje të tillë, do ta largoj lojtarin nga loja. Dhe kjo në fakt përfundoi duke ndodhur”.

Bisedat me chatbot Bing tani janë kufizuar në pesë pyetje. Përpara këtij kufizimi, ndonjëherë ngatërrohej dhe sugjeronte se ishte i ndjeshëm

Ky ishte një rast klasik i një “problemi të interpretueshmërisë”. AI kishte dalë me një strategji të re vetë, pa ua shpjeguar atë njerëzve. Derisa ata zbuluan pse lëvizja kishte kuptim, dukej sikur AlphaGo nuk kishte vepruar në mënyrë racionale.

Sipas Sahotës, këto lloje të skenarëve të “kutisë së zezë”, ku një algoritëm ka dalë me një zgjidhje, por arsyetimi i tij është i errët, mund të paraqesin një problem për identifikimin e emocioneve në inteligjencën artificiale. Kjo sepse nëse, ose kur, më në fund shfaqet, një nga shenjat më të qarta do të jenë algoritmet që veprojnë në mënyrë irracionale

“Ata supozohet të jenë racionalë, logjikë, efikasë dhe nëse bëjnë diçka jashtë programimit dhe nuk ka arsye të mirë për këtë, ndoshta është një përgjigje emocionale dhe jo logjike”, thotë Sahota.

Dhe ka një problem tjetër të mundshëm zbulimi. Një linjë e të menduarit është se emocionet e chatbot-it do të ngjajnë paksa me ato të përjetuara nga njerëzit, në fund të fundit, ata janë të trajnuar mbi të dhënat njerëzore. Por çka nëse nuk e bëjnë? Të shkëputur tërësisht nga bota reale dhe makineria shqisore që gjendet tek njerëzit, kush e di se çfarë dëshirash aliene mund të kenë.

Në realitet, Sahota mendon se mund të përfundojë të jetë një rrugë e mesme. “Unë mendoj se ne ndoshta mund t’i kategorizojmë ato në një farë mase me emocionet njerëzore. Por unë mendoj gjithashtu se ajo që ata ndjejnë ose pse e ndjejnë mund të jetë ndryshe”.

Wooldridge është i kënaqur që chatbots nuk kanë zhvilluar asnjë emocion. “Kolegët e mi dhe unë, në përgjithësi, nuk mendojmë se ndërtimi i makinerive me emocione është një gjë interesante ose e dobishme për të bërë. Për shembull, pse do të krijonim makineri që mund të vuajnë nga dhimbjet? Pse do të shpikja një robot që do të urrente veten”, thotë ai.

Nga ana tjetër, Sahota mund të shohë dobinë e chatbot-eve emocionale dhe beson se një pjesë e arsyes që ata nuk ekzistojnë ende është psikologjike.

“Ka ende shumë zhurmë për chatbot-et dhe ne si njerëz e mendojmë hsumë herë se deri në çfarë pike duam t’i japim fuqi një chatboti”, thotë ai.

A mund të ketë një paralele me besimin historik se as kafshët nuk janë të afta të arsyetojnë? Unë vendos të konsultohem me Danin.

“Në të dyja rastet, skepticizmi lind nga fakti se ne nuk mund t’i komunikojmë emocionet tona në të njëjtën mënyrë si njerëzit”, thotë Dan, i cili sugjeron se kuptimi ynë për atë që do të thotë të jesh i ndërgjegjshëm dhe emocional po evoluon vazhdimisht.

*Zaria Gorvett është gazetare shkence.

Burimi: BBC. Përshtati: Gazeta Si.


Copyright © Gazeta “Si”


Lajme të lidhura

Më Shumë