Inteligjenca Artificiale

Pse kompanitë e Inteligjencës Artificiale duan që të kesh frikë prej tyre

Nga Thomas Germain* Ata e ndërtuan. Kanë frikë prej saj. Dhe po e shesin gjithsesi.

Më ndalo nëse e ke dëgjuar këtë më parë: një kompani teknologjie thotë se ka krijuar një AI të re aq të fuqishme sa është e frikshme. Sipas tyre, është shumë e rrezikshme për t’u lëshuar në botë-pasojat do të ishin katastrofike. Fatmirësisht për ne, po e mbajnë të mbyllur për momentin. Thjesht donin që ta dije.

Kjo është pikërisht ajo që kompania e AI-së Anthropic po na thotë për modelin e saj më të fundit, Claude Mythos.

Kompania thotë se aftësia e Mythos për të gjetur dobësi në sigurinë kibernetike i tejkalon shumë ekspertët njerëzorë dhe se mund të ketë pasoja që ndryshojnë botën nëse teknologji të ngjashme bien në duar të gabuara.

“Pasojat për ekonomitë, sigurinë publike dhe sigurinë kombëtare mund të jenë të rënda,” tha Anthropic në një postim në blog në fillim të prillit.

Disa vëzhgues të alarmuar paralajmëruan se Mythos së shpejti mund të të detyrojë të zëvendësosh çdo pajisje teknologjike në jetën tënde, deri te mikrovala me WiFi, për t’u mbrojtur nga çmenduria digjitale.

Disa ekspertë sigurie i vënë në dyshim këto pretendime, por le ta lëmë këtë mënjanë. Kjo nuk është diçka e re. Drejtuesit e kompanive kryesore të AI-së paralajmërojnë rregullisht se produktet e industrisë së tyre mund të shkatërrojnë njerëzimin.

Pse kompanitë e AI-së duan që ne të kemi frikë prej tyre?

Është një mënyrë e çuditshme për çdo kompani që të flasë për punën e vet. Nuk dëgjon McDonald’s të thotë se ka krijuar një burger aq të frikshëm në shije sa do të ishte joetike ta shërbente për publikun.

Ja një teori. Sipas kritikëve, kompanitë e AI-së përfitojnë duke të mbajtur të fokusuar te apokalipsi, sepse kjo të shpërqendron nga dëmet shumë reale që ato po i shkaktojnë tashmë botës. Liderët e teknologjisë thonë se thjesht po na paralajmërojnë për një të ardhme të pashmangshme dhe se siguria është prioritet kryesor, tani apo më vonë.

Por të tjerë argumentojnë se ajo që po shohim në fakt është përhapje frike, që ekzagjeron potencialin e teknologjisë dhe shërben për të rritur vlerën e aksioneve. Gjithashtu krijon një narrativë sipas së cilës rregullatorët duhet të qëndrojnë mënjanë, sepse vetëm këto kompani mund t’i ndalojnë “të këqijtë” dhe ta zhvillojnë këtë teknologji në mënyrë të përgjegjshme.

“Nëse i paraqet këto teknologji si pothuajse mbinatyrore në rrezikun e tyre, na bën të ndihemi të pafuqishëm, sikur jemi të tejkaluar,” thotë Shannon Vallor, drejtuese e departamentit të etikës së të dhënave dhe inteligjencës artificiale në Universitetin e Edinburgut në Mbretërinë e Bashkuar.

“Sikur të vetmit njerëz te të cilët mund të mbështetemi janë vetë kompanitë.”

Dikush të më ndalojë

Një zëdhënës i Anthropic më tha se kompania ka qenë e qartë për këto çështje. Ata ndanë postime blogu nga organizata të tjera që mbështesin aftësitë kibernetike të Mythos, por nuk adresuan pikat e këtij artikulli, përveç një komenti që do ta përfshij më poshtë.

Kjo nuk është hera e parë që drejtuesi i Anthropic, Dario Amodei, ka punuar mbi një mjet që është shpallur shumë i rrezikshëm për publikun nga vetë kompania ku punonte.

Në vitin 2019, kur Amodei ishte drejtues në OpenAI, kompania prezantoi GPT-2. Ai dhe drejtues të tjerë thanë se nuk mund ta publikonin GPT-2 për shkak të “shqetësimeve për përdorime keqdashëse të teknologjisë”. Ky ishte një mjet shumë më pak i avancuar se ChatGPT.

Dhe disa muaj më vonë, e publikuan gjithsesi. (CEO i OpenAI, Sam Altman, më vonë shkroi se kompania e pranon pasigurinë dhe se frikërat për GPT-2 ishin “të pabazuara”.)

Altman kritikoi “marketingun e bazuar te frika” të Anthropic në një intervistë të fundit në podcast. Por edhe ai vetë e ka përdorur këtë narrativë prej vitesh.

“AI ka shumë gjasa të çojë në fundin e botës, por ndërkohë do të ketë kompani të shkëlqyera,” tha Altman në vitin 2015. Vite më vonë, ai tha se humb gjumin duke menduar nëse ka “bërë diçka shumë të keqe duke lançuar ChatGPT”. Sikur dikush ta kishte paralajmëruar.

Kompanitë e AI-së thonë se teknologjia e tyre mund të shkatërrojë botën. Por gjithashtu duan që ta blesh.

Qindra liderë të teknologjisë, përfshirë Altman, Amodei, Bill Gates dhe Demis Hassabis, CEO i Google DeepMind, mbështetën në vitin 2023 një deklaratë të shkurtër që thoshte: “Zbutja e rrezikut të zhdukjes nga AI duhet të jetë një prioritet global, krahas rreziqeve të tjera në shkallë shoqërore si pandemitë dhe lufta bërthamore.”

Po atë vit, figura të njohura si Elon Musk nënshkruan një letër që kërkonte një pauzë gjashtëmujore në zhvillimin e AI-së së avancuar.

Musk shpalli kompaninë e tij të re të inteligjencës artificiale, xAI, më pak se gjashtë muaj më vonë.

“Është pjesë e një modeli pretendimesh të pabazuara për fuqi,” thotë Emily M. Bender, profesore në Universitetin e Uashingtonit dhe bashkautore e librit The AI Con. Kjo nuk kufizohet vetëm te OpenAI dhe Anthropic, thotë ajo; është qëndrimi standard i gjithë industrisë së AI-së.

“Po thonë ‘shikoni këtu’, ndërkohë që injorohen shkatërrimi i mjedisit, shfrytëzimi i punës dhe sistemet që po shkatërrohen në shoqëri.”

E pyeta OpenAI për këtë. Një zëdhënës ndau një postim të fundit të Altman, ku ai shkruante se kompania do t’i “rezistojë mundësisë që kjo teknologji të përqendrojë pushtetin në duart e pak njerëzve”, duke shtuar se “vendimet kyçe për AI-në duhet të merren përmes proceseve demokratike dhe me parime barazie, jo vetëm nga laboratorët e AI-së”.

A është vërtet kaq i rrezikshëm Mythos?

Anthropic thotë se modeli i saj i ri ka zbuluar tashmë mijëra dobësi “me rrezik të lartë” në teknologji, në një nivel që tejkalon ekspertët njerëzorë. Ajo gjithashtu njoftoi një partneritet me më shumë se 40 kompani dhe grupe, në një përpjekje “urgjente” për të rregulluar këto dobësi përpara se hakerët t’i shfrytëzojnë.

Por ka dyshime serioze për këto pretendime. Heidy Khlaaf, shkencëtare kryesore e AI-së në AI Noë Institute, nuk u impresionua.

Kjo nuk do të thotë se rreziku është imagjinar.

“Mythos mund të jetë i aftë,” thotë Khlaaf. Mjetet e AI-së janë vërtet të mira për të analizuar kode të mëdha dhe për të gjetur dobësi sigurie. Por ajo mbetet skeptike ndaj pretendimeve të Anthropic pa prova konkrete.

Pse kaq seriozë?

Parandalimi i fundit të botës është arsyeja pse OpenAI dhe Anthropic thonë se ekzistojnë. OpenAI u themelua si organizatë jofitimprurëse me premtimin për të ndërtuar AI të sigurt.

Më vonë, një grup u nda dhe krijoi Anthropic duke pretenduar se OpenAI nuk i jepte mjaftueshëm rëndësi sigurisë. Tani, të dyja po synojnë të bëhen kompani publike dhe të shesin aksione në bursë.

“Nëse do të kuptosh si do të sillet një organizatë, shiko stimujt që ka,” thotë Vallor.

Ndërkohë, shqetësimet reale janë të shumta: përdorimi i AI-së në shëndetësi me rrezik diagnozash të gabuara, qendrat e të dhënave që rrisin ndotjen, ndikimi në shëndetin mendor, madje edhe lidhje të mundshme me rënie kognitive. Deepfake-t kanë kaluar pikën e kthimit.

Kompanitë thonë se i marrin seriozisht këto probleme. Por sipas Vallor, ka një arsye pse ato flasin më shumë për apokalipsin: nëse AI mund të shkatërrojë botën, problemet e tjera duken më të vogla.

Demonë apo shpëtimtarë?

Në të njëjtën kohë që paralajmërojnë për shkatërrim, disa nga këta njerëz premtojnë edhe shpëtim. Altman ka parashikuar arritje të jashtëzakonshme si zgjidhja e krizës klimatike dhe kolonizimi i hapësirës. Amodei ka folur për “një vend me gjeni në një qendër të dhënash”.

Sipas Vallor, utopia dhe apokalipsi janë dy anë të së njëjtës monedhë. Të dyja janë aq të mëdha sa i bëjnë rregullat dhe ligjet të duken të pafuqishme.

Por këto nuk janë perëndi, janë produkte të ndërtuara nga kompani për fitim. Dhe njerëzimi ka rregulluar teknologji shumë më të rrezikshme se chatbot-et.

Le të jemi të qartë: është teorikisht e mundur që AI të marrë kontrollin e botës. Por pyet veten: a të duket kjo si histori që i ke dëgjuar më parë nga Silicon Valley?

A nuk duhej të jetonim të gjithë tani në Metaverse të Mark Zuckerberg? A nuk do ta zëvendësonte Bitcoin të gjithë monedhën botërore? Në vitet 2010 nuk thuhej se rrjetet sociale do të shpëtonin demokracinë?

Ndoshta këto gjëra do të ndodhin. Ose ndoshta jo./ Marrë nga BBC

Shënim: Thomas Germain është gazetar i teknologjisë në BBC


Copyright © Gazeta “Si”


Lini një Përgjigje

Adresa juaj email s’do të bëhet publike. Fushat e domosdoshme janë shënuar me një *

Më Shumë