A duhet t’i automatizojmë të gjitha punët? A duhet të zhvillojmë mendje jo-njerëzore që përfundimisht mund të jenë më të mëdha, të zgjuara…dhe të na zëvendësojnë? A duhet të rrezikojmë humbjen e kontrollit të qytetërimit tonë?”
Këto pyetje u bënë muajin e kaluar në një letër të hapur nga Instituti Future of Life, një Organizatë Joqeveritare.
Ajo bëri thirrje për një “pauzë” gjashtëmujore në krijimin e formave më të avancuara të inteligjencës artificiale (AI), dhe u nënshkrua nga drejtues të teknologjisë, përfshirë Elon Musk.
Është shembulli më i spikatur se si përparimi i shpejtë në IA ka ngjallur ankth rreth rreziqeve të mundshme të teknologjisë.
Në veçanti, “modelet e reja të gjuhëve të mëdha”, lloji që fuqizon Chatgpt, një chatbot i krijuar nga Open AI,kanë befasuar edhe krijuesit e tyre.
Aftësi të tilla “emergjente” përfshijnë gjithçka, nga zgjidhja e enigmave logjike dhe shkrimi i kodit kompjuterik e deri te identifikimi i filmave nga përmbledhjet e komplotit të shkruara me emoji.
Këto modele do të transformojnë marrëdhëniet e njerëzve me kompjuterët, njohuritë dhe madje edhe me veten e tyre. Përkrahësit e AI argumentojnë për potencialin e saj për të zgjidhur probleme të mëdha duke zhvilluar ilaçe të reja, duke dizajnuar materiale të reja për të ndihmuar në luftimin e ndryshimeve klimatike ose duke zgjidhur kompleksitetin e fuqisë së shkrirjes.
Për të tjerët, fakti që aftësitë e AI-së tashmë po i tejkalojnë të kuptuarit e krijuesve të tyre, rrezikon të sjellë në jetë skenarin e fatkeqësisë fantastiko-shkencore të makinës që tejkalon shpikësin e saj, shpesh me pasoja fatale.
Kjo përzierje e frytshme e emocionit dhe frikës e bën të vështirë peshimin e mundësive dhe rreziqeve. Por mësimet mund të mësohen nga industri të tjera dhe nga ndryshimet e kaluara teknologjike. Pra, sa duhet të keni frikë? Dhe çfarë duhet të bëjnë qeveritë?
Vala e parë e sistemeve moderne të AI e cila u shfaq një dekadë më parë, u mbështet në të dhënat e trajnimit të etiketuara me kujdes. Pasi të ekspozohen ndaj një numri të mjaftueshëm shembujsh të etiketuar, ata mund të mësojnë të bëjnë gjëra të tilla si njohja e imazheve ose transkriptimi i të folurit.
Sistemet e sotme nuk kërkojnë etiketim paraprak, dhe si rezultat mund të trajnohen duke përdorur grupe të dhënash shumë më të mëdha të marra nga burime online.
Këto aftësi u bënë të dukshme për një publik më të gjerë kur Chatgpt u publikua në nëntor.
Një milion njerëz e kishin përdorur atë brenda një jave. Së shpejti u përdor për të gjeneruar ese shkollore dhe fjalime dasmash. Popullariteti i Chatgpt dhe lëvizja e Microsoft për ta përfshirë atë në bing, motorin e tij të kërkimit, i shtynë firmat rivale të lëshojnë gjithashtu chatbote.
Disa nga këto sollën rezultate të çuditshme. Bing Chat i sugjeroi një gazetari që të linte gruan e tij. Chatgpt është akuzuar për shpifje nga një profesor i drejtësisë. Ai prodhon përgjigje që kanë të vërteta por shpesh përmbajnë gabime faktike ose trillime të drejtpërdrejta. Megjithatë, Microsoft, Google dhe firma të tjera të teknologjisë kanë filluar ta përfshijnë në produktet e tyre, për të ndihmuar përdoruesit të krijojnë dokumente dhe të kryejnë detyra të tjera.

Përshpejtimi i kohëve të fundit në fuqinë dhe dukshmërinë e sistemeve të AI dhe ndërgjegjësimi në rritje për aftësitë dhe defektet e tyre, kanë ngritur frikën se teknologjia tani po përparon aq shpejt sa nuk mund të kontrollohet në mënyrë të sigurt. Prandaj thirrja për një pauzë dhe shqetësimi në rritje se ai mund të kërcënojë jo vetëm vendet e punës, saktësinë faktike dhe reputacionin, por edhe vetë ekzistencën e njerëzimit.
Zhdukja? Rebelim?
Frika se makinat do të vjedhin punë është shumë shekullore. Por deri tani teknologjia e re ka krijuar vende të reja pune për të zëvendësuar ato që ka shkatërruar. Makineritë priren të jenë në gjendje të kryejnë disa detyra, jo të tjera, duke rritur kërkesën për njerëz që mund të bëjnë punët që makineritë nuk munden. A mund të jetë ndryshe kjo herë?
Një zhvendosje e papritur në tregjet e punës nuk mund të përjashtohet, edhe nëse deri tani nuk ka asnjë shenjë të tillë.Teknologjia e mëparshme ka tentuar të zëvendësojë detyrat e pakualifikuara.
Shkalla e rrezikut ekzistencial të paraqitur është debatuar shumë. Ekspertët janë të ndarë. Në një anketë të studiuesve të AI të kryer në vitin 2022, 48% mendonin se kishte të paktën 10% mundësi që ndikimi të ishte “jashtëzakonisht i keq (p.sh., zhdukja e njerëzve)”.
Por 25% thanë se rreziku ishte 0%; studiuesi mesatar e vendos rrezikun në 5%. Makthi është se një AI i avancuar shkakton dëm në një shkallë masive, duke prodhuar helme ose viruse, ose duke i bindur njerëzit të kryejnë akte terroriste. Nuk duhet të ketë qëllim të keq: studiuesit shqetësohen se AI -t e ardhshëm mund të kenë qëllime që nuk përputhen me ato të krijuesve të tyre njerëzorë.
Skenarë të tillë nuk duhen hedhur poshtë. Por të gjitha përfshijnë një sasi të madhe supozimesh dhe një hap nga teknologjia e sotme. Dhe shumë mendojnë se AI -të e ardhshme do të kenë akses të papenguar në energji, para dhe fuqi kompjuterike, të cilat janë kufizime reale sot.
Për më tepër, ekspertët priren të mbivlerësojnë rreziqet në zonën e tyre, krahasuar me parashikuesit e tjerë. (Dhe zoti Musk, i cili po lançon startup-in e tij të inteligjencës artificiale, ka interes për rivalët e tij që të rrëzojnë mjetet.) Imponimi i rregullave të rënda, ose në të vërtetë një pauzë, sot duket një reagim i tepruar. Një pauzë do të ishte gjithashtu e pazbatueshme.
Rregullimi është i nevojshëm, por për arsye më të zakonshme sesa shpëtimi i njerëzimit. Sistemet ekzistuese të AIngrenë shqetësime reale për paragjykimet, privatësinë dhe të drejtat e pronësisë intelektuale. Ndërsa teknologjia përparon, probleme të tjera mund të bëhen të dukshme. Çelësi është të balanconi premtimin e AI me një vlerësim të rreziqeve dhe të jeni gati për t’u përshtatur.
Deri më tani, qeveritë po marrin tre qasje të ndryshme. Në njërin skaj të spektrit është Britania, e cila ka propozuar një qasje “të lehtësuar” pa rregulla apo organe të reja rregullatore, por zbaton rregulloret ekzistuese për sistemet e AI. Qëllimi është të nxisë investimet dhe ta kthejë Britaninë në një “superfuqi të AI”. Amerika ka marrë një qasje të ngjashme, megjithëse administrata Biden tani po kërkon pikëpamjet e publikut se si mund të duket një libër rregullash.
BE -ja po ndjek një linjë më të ashpër. Ligji i propozuar kategorizon përdorime të ndryshme të AI sipas shkallës së rrezikut dhe kërkon monitorim dhe zbulim gjithnjë e më të rreptë ndërsa shkalla e rrezikut rritet nga, të themi, rekomandimet e muzikës për makinat që drejtojnë vetë. Disa përdorime të inteligjencës artificiale janë të ndaluara fare, të tilla si reklamimi subkoshiencës dhe biometria në distancë. Firmat që shkelin rregullat do të gjobiten. Për disa kritikë, këto rregullore janë shumë mbytëse.
Por të tjerë thonë se nevojitet një qasje edhe më e ashpër. Qeveritë duhet ta trajtojnë AI si me ilaçe, me një rregullator të dedikuar, testim të rreptë dhe miratim paraprak përpara publikimit. Kina po bën një pjesë të kësaj, duke u kërkuar firmave që të regjistrojnë produktet e AI dhe t’i nënshtrohen një rishikimi sigurie përpara lëshimit.
Zbulimi bindës se si trajnohen sistemet, si funksionojnë dhe si monitorohen, dhe që kërkon inspektime, do të ishte i krahasueshëm me rregulla të ngjashme në industri të tjera.
Kjo mund të lejojë rregullim më të rreptë me kalimin e kohës, nëse është e nevojshme. Një rregullator i dedikuar atëherë mund të duket i përshtatshëm; po ashtu mund të jenë edhe traktatet ndërqeveritare, të ngjashme me ato që rregullojnë armët bërthamore, nëse dalin prova të besueshme të rrezikut ekzistencial.
Kjo teknologji e fuqishme paraqet rreziqe të reja, por ofron edhe mundësi të jashtëzakonshme. Të balancosh të dyja do të thotë të ecësh me kujdes.
Një qasje e matur sot mund të sigurojë bazat mbi të cilat rregulla të mëtejshme mund të shtohen në të ardhmen. Por koha për të filluar ndërtimin e këtyre themeleve është tani.
Burimi: The Economist/Përshtati Gazeta Si
Copyright © Gazeta “Si”
Të gjitha të drejtat e këtij materiali janë pronë ekskluzive dhe e patjetërsueshme e Gazetës “Si”, sipas Ligjit Nr.35/2016 “Për të drejtat e autorit dhe të drejtat e tjera të lidhura me to”. Ndalohet kategorikisht kopjimi, publikimi, shpërndarja, tjetërsimi etj, pa autorizimin e Gazetës “Si”, në të kundërt çdo shkelës do mbajë përgjegjësi sipas nenit 179 të Ligjit 35/2016.
.png)



