Inteligjenca Artificiale

Artikujt e shkruar me Inteligjencë Artificiale kanë (ende) shumë gabime

Në vazhdën e popullaritetit të ChatGPT, diskutimi është më i hapur se kurrë: në çfarë pike arrin besueshmëria e Inteligjencës Artificiale kur bëhet fjalë për të shkruar artikuj gazetareskë? A mund të zëvendësojnë algoritmet me të vërtetë profesionistët e informacionit? Eksperimenti, i cili u bë nga një prej autoriteteve amerikane në fushën e teknologjisë, na bën të dyshojmë mbi këtë hipotezë.

Sfondi i lajmit të publikuar nga Engadget (portal me autoritet në fushën digjitale), sipas të cilit, 41 nga 77 artikujt e shkruar nga Inteligjenca Artificiale janë redaktuar për shkak të pranisë së gabimeve të rënda dhe për të shmangur plagjiaturën, mund të jetë marrë pikërisht në faqen Cnet, në një ndërhyrje nga një prej kryeredaktorëve të saj, Connie Guglielmo.

Artikulli sjell në kujtesë se si teksti u krijua në nëntor nga Cnet Money, duke përdorur një motor të Inteligjencës Artificiale i zhvilluar nga ata (jo nga ChatGPT) për të ndihmuar redaktorët të krijonin tekste mbi njohuri financiare.

Të realizuara me ndihmën e këtij mjeti, 77 historitë e shkurtra përfaqësojnë rreth 1% të totalit të përmbajtjeve të publikuara në faqe në të njëjtën periudhë. Ato janë fryt i bashkëpunimit mes Inteligjencës Artificiale (që krijoi draftet) dhe redaktorëve (të cilët i zgjeruan, shtuan dhe redaktuan draftet përpara se t’i publikonin).

Dhe aty ku makina bëri gabime, siç mund t’u ndodhë edhe njerëzve, redaksia e Cnet Money ndërhyri, duke rishikuar gjithë tekstin.

Rreziku i plagjiaturës

Nëse në Cnet janë të bindur se mjetet e reja teknologjike po përshpejtojnë ndryshimin në fushën e botimeve, kundërshtimi i Engadget lidhet me numrin e gabimeve të gjetura, në më shumë se gjysmën e artikujve të shkruar nga Inteligjenca Artificiale.

Është e vështirë të përcaktohet përmasa e vërtetë e një “korrigjimi thelbësor”, që sipas Cnet ka prekur pak artikuj, nga shkalla e “problemeve të vogla”, të cilat detyruan redaktorët të korrigjojnë emrat e paplotë të kompanive, gjuhën e konsideruar të paqartë, ose fjali joorigjinale dhe të marra (sigurisht pa leje) nga burime të tjera.

Mbetet fakti, siç shkruan Engadget, që Futurism, artikulli i cili foli për herë të parë për eksperimentin, pretendonte se kishte prova të shumta që përmbajtja e krijuar nga motori i Inteligjencës Artificiale të Cnet tregonte “ngjashmëri të thellë” në strukturë dhe formulim me artikujt e botuar më parë në media të tjera.

Alarmi MIT mbi ChatGPT

Diskutimi është i hapur edhe në lidhje me shkallën e përgjegjësisë etike të Inteligjencës Artificiale krahasuar me atë (të detyrueshme dhe të nevojshme) të redaktorëve të vërtetë.

Guglielmo thekson në një pasazh të artikullit të tij se, qëllimi i Cnet është përdorimi i algoritmeve për të shkruar një pjesë të përmbajtjeve për botim, por vetëm kur “ne të ndihemi të sigurt se mjeti dhe proceset tona editoriale do të eliminojnë të gjitha gabimet, si njerëzore, edhe teknologjike”.

Ndërkohë do të vijojnë testet për të kuptuar se si inteligjenca e softuerit mund të ndihmojë redaktorët të kryejnë punën e tyre të përditshme të verifikimit, kërkimit dhe shkrimit.

A do të jetë pika e kthesës arritja e një niveli saktësie dhe vërtetësie të përmbajtjes së krijuar nga motori, i tillë që të konsiderohet me cilësi “njerëzore”?

Një artikull i fundit i shfaqur në Tech Review të MIT i paralajmëroi të gjithë kundër entuziazmit, duke shpjeguar se “modelet si ChatGPT priren të përpunojnë përmbajtje të pjesshme dhe të pasakta, kanë aftësi të madhe për të krijuar një gjuhë elegante të krahasueshme me një tekst të shkruar nga një njeri, por nuk kanë një kuptim të vërtetë të asaj që po krijojnë, duke ofruar falsifikime dhe fakte me të njëjtin nivel të lartë sigurie”.

Burimi: Il Sole 24 Ore; Përshtati Gazeta Si


Copyright © Gazeta “Si”


Lajme të lidhura

Më Shumë