Nga Melissa Parke* – Nuk është më një skenar fantastiko-shkencor: gara për të përdorur Inteligjencën Artificiale në sistemet e armëve bërthamore ka nisur tashmë. Dhe ky zhvillim mund ta bëjë akoma më të mundshme shpërthimin e një lufte bërthamore midis shteteve që i zotërojnë këto armë.
Me qeveritë në mbarë botën që veprojnë për të siguruar zhvillimin dhe aplikimin e sigurt të AI, ekziston një mundësi për të zbutur këtë rrezik. Por nëse liderët botërorë duan ta kapin atë, ata së pari duhet të kuptojnë se sa serioz është kërcënimi.
Disa javë më parë, samiti i G7-s ra dakord mbi Kodin Ndërkombëtar të Sjelljes të Procesit të Hiroshimës për Organizatat që Zhvillojnë Sisteme të Avancuara të Inteligjencës Artificiale që “të promovojë një AI të sigurtë dhe të besueshëm në mbarë botën”.
Ndërkohë presidenti i SHBA-së Joe Biden ka firmosur një urdhër ekzekutiv që përcakton standarde të reja për sigurinë e veprimtarisë së Inteligjencës Artificiale. Nga ana tjetër Britania e Madhe organizoi samitin e parë global të sigurisë së AI, me synimin për të siguruar që kjo teknologji e përparuar të zhvillohet në një mënyrë “të sigurt dhe të përgjegjshme”.
Por asnjë nga këto nisma nuk i adreson si duhet rreziqet që vijnë nga përdorimi i Inteligjencës Artificiale tek armët bërthamore. Si Kodi i Sjelljes së G7-ës, ashtu edhe urdhri ekzekutiv i Biden i referohen vetëm nevojës për të mbrojtur popullsinë nga kërcënimet kimike, biologjike dhe bërthamore të krijuara nga AI.
Dhe kryeministri britanik Rishi Sunak, as që e përmendi kërcënimin akut që paraqitet nga aplikacionet e AI të lidhur me armët bërthamore, edhe pse deklaroi se në samitin në fjalë ishte arritur një mirëkuptim i përbashkët mbi rreziqet e paraqitura nga Inteligjenca Artificiale.
Askush nuk dyshon tek rreziqet ekzistenciale që vijnë nga përdorimi i armëve bërthamore, të cilat do të shkaktonin shkatërrime të jashtëzakonshme mbi njerëzimin dhe planetin tonë. Edhe një luftë bërthamore rajonale do të vriste në çast qindra mijëra njerëz, ndërsa do të shkaktonte vuajtje dhe miliona të vdekur në javët, muajt dhe vitet në vazhdim.
Vetëm nga ndryshimet klimatike që do të shkaktoheshin do të kërcënohej nga uria jeta e miliarda njerëzve. Historia e armëve bërthamore është e mbushur me raste kur kemi qenë në prag të greminës. Shpeshherë Apokalipsi është shmangur nga një njeri i vetëm që zgjodhi t’i besonte gjykimit të tij, në vend se të bazohej verbërisht tek informacioni që i jepnin makineritë.
Në vitin 1983, oficeri sovjetik Stanislav Petrov mori një alarm nga sistemi satelitor i paralajmërimit të hershëm që po monitoronte disa raketat bërthamore amerikane që ishin nisur drejt Bashkimit Sovjetik. Por në vend se të lajmëronte menjëherë eprorët e tij, duke shkaktuar me siguri edhe “hakmarrjen” bërthamore, Petrov vendosi me të drejtë që ai ishte një alarm i rremë.
A do të kishte vepruar njëlloj Petrov nëse do të ishte përfshirë edhe Inteligjenca Artificiale? Në fakt, përdorimi i saj tek armët bërthamore do të zvogëlojë kontrollin e njeriut mbi vendimet për përdorimin e mundshëm të këtyre armëve.
Natyrisht, një numër në rritje i detyrave të komandës, kontrollit dhe komunikimit janë të automatizuara që nga shpikja e armëve bërthamore. Por, ndërsa po përparon me ritme të shpejta mësimi i makinerive, procesi ku makinat e avancuara marrin vendime po bëhet gjithnjë e më i errët.
Pra kemi atë që njihet edhe si “problemi i kutisë së zezë” të AI-së. Kjo e bën më të vështirë për njerëzit që të monitorojnë funksionimin e një makinerie, e lëre më pastaj të përcaktojnë nëse ajo është e komprometuar, nuk funksionon ape është programuar në atë mënyrë që mund të çojë në rezultate të paligjshme ose të paqëllimshme.
Edhe vetëm sigurimi që të jetë një njeri dhe jo makineri që do të marrë vendimin përfundimtar të lëshimit të armëve të tilla, nuk do të mjaftonte për të zbutur këto rreziqe. Psikologu John Hawley kreu në vitin 2017 një studim duke arritur në përfundimin se “njerëzit janë shumë dobët në përmbushjen e kërkesave të monitorimit dhe ndërhyrjes të vendosura nga kontrolli mbikëqyrës”.
Për më tepër, siç e tregoi Programi i Universitetit Prinston për Shkencën dhe Sigurinë Globale në vitin 2020, proceset vendimmarrëse të liderëve në një krizë bërthamore janë tashmë shumë të nxituara.
Edhe nëse AI përdoret thjesht tek sensorë dhe për shenjestrim dhe jo për të marrë vendime për lëshimin e armëve, kjo do të reduktonte afatin kohor tashmë shumë të ngushtë për të vendosur nëse do të goditet armiku apo jo. Presioni i shtuar mbi udhëheqësit do të rrisë më tej rrezikun e llogaritjes së gabuar ose zgjedhjeve irracionale.
Një rrezik tjetër lind nga përdorimi i Inteligjencës Artificale tek satelitët dhe sistemet e tjera të zbulimit: ajo do ta bëjë më të vështirë fshehjen e armëve bërthamore, si për shembull tek nëndetëset me raketa balistike. Kjo mund të nxisë vendet e armatosura me armë bërthamore që të vendosin më herët në gatishmëri të gjitha armët e tyre bërthamore, madje përpara se kundërshtarët e tyre të kenë një shans për të neutralizuar sistemet e njohura bërthamore.
Deri më tani, asnjë nismë – nga urdhri ekzekutiv i Bidenit deri tek Kodi i Sjelljes së G7-së – nuk ka shkuar përtej një angazhimi vullnetar për të siguruar që të jenë njerëzit ata që të mbajnë kontrollin e vendimmarrjes për armët bërthamore.
Por, siç e ka vënë në dukje Sekretari i Përgjithshëm i Kombeve të Bashkuara, António Guterres, është thelbësor një traktat ligjërisht i detyrueshëm që ndalon “sistemet e armëve vdekjeprurëse autonome”.
Ndërsa një traktat i tillë është një hap i parë i domosdoshëm, duhet bërë shumë më tepër. Kur flasim për armët bërthamore, nuk do të jetë asnjëherë e mjaftueshme përpjekja për të parashikuar, zbutur ose rregulluar rreziqet e reja të krijuara nga teknologjitë në zhvillim.
Ne duhet t’i zhdukim plotësisht këto lloj armësh. Kjo do të thotë se të gjitha qeveritë duhet të angazhohen në stigmatizimin, ndalimin dhe eliminimin e të gjitha armëve bërthamore, duke iu bashkuar Traktatit për Ndalimin e Armëve Bërthamore, i cili ofron një rrugë të qartë drejt një bote pa armë të tilla.
Dhe kjo do të thotë gjithashtu, që shtetet e armatosura me armë bërthamore, duhet të ndalojnë menjëherë investimet në modernizimin dhe zgjerimin e arsenalit të tyre bërthamor, duke mos marrë parasysh justifikimet se këto ndërhyrje rrisin sigurinë e tyre.
Duke pasur parasysh rreziqet e pakapërcyeshme që vijnë nga ekzistenca e thjeshtë e armëve bërthamore, përpjekje të tilla janë në thelb të kota. Ne e dimë që sistemet autonome mund ta ulin pragun për t’u përfshirë në konflikt të armatosur. Kur përdoret tek armët bërthamore, AI shton një shtresë tjetër rreziku në një nivel rreziku tashmë të papranueshëm.
Prandaj është jetike që politikë-bërësit dhe publiku ta njohin këtë, dhe të përpiqen jo vetëm të shmangin përdorimin e Inteligjencës Artificiale tek armët bërthamore, por të marrin në konsideratë edhe përpjekjen për t`i eliminuar plotësisht këto lloj armësh.
Burimi: Project Syndicate/ Përshtati: Gazeta Si
Shënim: Melissa Parke, ish-ministre e Australisë për Zhvillimin Ndërkombëtar. Aktualisht është Drejtore Ekzekutive e Fushatës Ndërkombëtare për Asgjësimin e Armëve Bërthamore, për të cilin fitoi Çmimin Nobel për Paqe në vitin 2017.
Copyright © Gazeta “Si”
Të gjitha të drejtat e këtij materiali janë pronë ekskluzive dhe e patjetërsueshme e Gazetës “Si”, sipas Ligjit Nr.35/2016 “Për të drejtat e autorit dhe të drejtat e tjera të lidhura me to”. Ndalohet kategorikisht kopjimi, publikimi, shpërndarja, tjetërsimi etj, pa autorizimin e Gazetës “Si”, në të kundërt çdo shkelës do mbajë përgjegjësi sipas nenit 179 të Ligjit 35/2016.




