Platforma e Rohrer, e quajtur ‘Projekti Dhjetor’, tani premton, për një çmim prej 10 dollarësh, të “simulojë një bisedë të bazuar në tekst me këdo”. Është një Chatbot që mund të përfshijë në biseda këdo dhe me “këdo” përfshihen edhe të vdekurit.
Rezultatet mund të jenë rrëqethëse. Chatbot pyeti një përdorues nëse mund të ishte e dashura e tij. Një grua u trondit kur chatbot, që pretendohej të ishte një simulim i të dashurit të saj të vdekur thotë se ai është “në ferr”, i rrethuar nga “kryesisht të varur”.
‘Projekti Dhjetor’ duket një hap më afër një bote ku ne nuk mund të dallojmë se çfarë është reale dhe çfarë është simuluar, çfarë është njerëzore dhe çfarë është teknologji. Ai ngre pyetje për privatësinë dhe shëndetin mendor: a ofron probleme apo i parandalon ato?
Rohrer, për çudi, nuk ka pasur kurrë një telefon celular, duke i quajtur ato “jashtëzakonisht të dëmshëm”. Megjithëse ai ka eksperimentuar me ‘Projektin Dhjetor’ për të simuluar gjyshin e tij ndërkohë që gruaja e tij mendon se është e pamoralshme.
Rohrer, 46 vjeç, është i çuditshëm dhe eksperimentues. Njëzet vjet më parë, ai dhe gruaja e tij vendosën të rrisin fëmijët e tyre pa ndasi gjinore.
“Nuk i kam parë organet gjenitale të fëmijës tim ditët e para. Në thelb për mua ishte thjesht një fëmijë”, thotë ai.
Në fund, tre djemtë e tij u tërhoqën pas armëve lodra dhe kamionëve, jo kukullave, duke e çuar atë në përfundimin se ndoshta nuk ia vlente përpjekja.
Në verën e vitit 2020, Jason Rohrer po ikte nga tymi i zjarrit në Kaliforni. Ai dhe familja e tij shkuan me makinë në Nevada, më pas në Arizona. Larg tavolinës së tij, Rohrer nuk ishte në gjendje të vazhdonte punën e tij, duke vizatuar me dorë projektin e tij.
Kështu ai filloi një “projekt anësor”. OpenAI kishte lëshuar GPT2, një version të hershëm të modelit të tij, por i bllokoi njerëzit që të flisnin përpara dhe mbrapa me të. Rohrer-it iu desh një muaj për të “mashtruar” ndërfaqen në mënyrë që përdoruesit të mund të bisedonin me AI. Ai ndërtoi disa personazhe që njerëzit të flisnin. Ai gjithashtu lejoi përdoruesit të krijojnë të tyren.
Ashtu si Rohrer përmbysi planet e OpenAI, përdoruesit përmbysën të tijat. Ata filluan të përdorin platformën e tij për të krijuar versione të të dashurve të tyre të vdekur. Simulimi i të vdekurve ishte “aplikacioni vrasës”, siç thotë ai.
Imagjinoni nëse mund të krijoni dikë që e mendonit të humbur përgjithmonë. Joshua Barbeau, një shkrimtar, shpërtheu në lot pasi foli me një version chatbot të të fejuarës së tij të ndjerë.
“AI krijoi kujtime të Jessica-s që i kisha harruar plotësisht”, raportoi ai. Përvoja e tij inkurajoi të tjerët.
Përdoruesi tipik është dikush, vëllai binjak i të cilit kreu vetëvrasje në moshën 35-vjeçare. E fejuara e Joshuas vdiq nga një çrregullim i rrallë i mëlçisë pak para se të martoheshin. Më e keqja nga më të këqijat për sa i përket traumës. Ata i kanë lexuar të gjithë librat. Kanë shkuar te grupet mbështetëse, në terapi dhe kanë kaluar nëpër çdo kanal të disponueshëm në përpjekje për të trajtuar pikëllimin e tyre, dhe më pas ata dëgjojnë për këtë gjë dhe thonë: do të provoj gjithçka.
Një dokumentar i ri, ‘Eternal You’, përdor inteligjencën artificiale të Rohrer-it si një shembull se si diçka thelbësore është në rrezik në mënyrën se si ne e shohim vdekjen.
Regjisorët, Hans Block dhe Moritz Riesewieck, tregojnë gjithashtu një nënë të ndjerë duke takuar vajzën e saj shtatëvjeçare të vdekur në realitetin virtual; përvoja duket se e ndihmon atë të vazhdojë përpara. Sherry Turkle, profesoreshë në Institutin e Teknologjisë në Masaçusets, thotë se AI tani po ofron përjetësi, ashtu si feja.
Pas zbulimit të ‘Projektit Dhjetor’, ai e quajti atë “makina e parë me shpirt”. A ishte kjo hiperbolë e qëllimshme? Jo tamam. Rohrer argumenton se ChatGPT ka sjellje të padallueshme nga ajo e një njeriu.
“Jo vetëm që inteligjenca artificiale ndonjëherë shfaq inteligjencë, por shfaq kreativitet mbi dhe përtej asaj që qeniet njerëzore janë të afta.”
‘Projekti Dhjetor’ kërkon shumë pak informacion për të simuluar të vdekurit, mjafton një përshkrim i personit dhe një citim.
Përdoruesit duhet t’i përgjigjen një pyetësori të vogël për personin që duan të rikrijojnë.
Kur OpenAI zbuloi se si Rohrer po përdorte modelin e tij, kërkoi që ai të monitoronte bisedat. Po sikur AI t’i thoshte një përdoruesi të vriste veten?
“Për mua, ishte moralisht e kundërshtueshme, sepse njerëzit që flasin me AI kanë një pritshmëri të fortë për privatësinë.”
Microsoft patentoi një chatbot për të imituar të vdekurit, bazuar pjesërisht në postimet e mediave sociale, në vitin 2017, por tha katër vjet më vonë se kishte ndërprerë punën në të pasi kishte parë rezultate “shqetësuese”.
A e kupton Rohrer se disa njerëz kanë frikë se jemi në prag të ndryshimeve shumë negative? Ai përgjigjet se të besosh se mund të drejtojmë qytetërimin njerëzor është “iluzion dhe i gabuar”.
“Shumë njerëz shohin se ku është AI tani, dhe ata shohin ChatGPT dhe madje edhe Projektin Dhjetor, dhe thonë: nëse vazhdojmë të ecim në këtë drejtim, do të jemi në këtë vend në të ardhmen. Historia e AI na ka treguar se kjo nuk është kurrë e vërtetë. Vetëm për shkak se keni një përparim të madh në diçka, nuk do të thotë se përparimi tjetër i madh është afër qoshes”, thotë ai.
Po rreziku që njerëzit të kalojnë më shumë kohë para ekraneve, duke theksuar vetminë?
“Ne nuk mund të parandalojmë njerëzit të kalojnë në depresion, apo jo? A do të themi se filmat horror janë shumë të rrezikshëm vetëm sepse disa njerëz traumatizohen?”
Burimi: Financial Times. Përshtati: Gazeta Si.
Copyright © Gazeta “Si”
Të gjitha të drejtat e këtij materiali janë pronë ekskluzive dhe e patjetërsueshme e Gazetës “Si”, sipas Ligjit Nr.35/2016 “Për të drejtat e autorit dhe të drejtat e tjera të lidhura me to”. Ndalohet kategorikisht kopjimi, publikimi, shpërndarja, tjetërsimi etj, pa autorizimin e Gazetës “Si”, në të kundërt çdo shkelës do mbajë përgjegjësi sipas nenit 179 të Ligjit 35/2016.




