Një firmë e sigurisë thotë se audio-bisedat më zë fals po përdoret për të vjedhur miliona paund. Kompania e sigurisë Symantec tha se kishte konstatuar tri raste të audios ku drejtues të ndryshëm në kompani të rëndësishme kanë rënë preh e këtyre mashtruesve të sofistikuar dhe kanë bërë transferime të shumave të mëdha parash.
Këta mashtrues profesionistë ose siç quhen Deepfakes përdorin inteligjencën artificiale për të krijuar imitimin e zërave të njerëzve të njohur. “Sistemi i UA mund të trajnohej duke përdorur shumë audio të regjistruara për të arritur qëllimin që hakerat kërkojnë” thotë Symantec.“Videot e njerëzve të famshëm që përdoren janë nga më të ndryshmet, nga konferencat deri tek bisedat e tyre të zakonshme. Pasi ata grumbullojnë një sasi të konsiderueshme videosh, arrijnë të ndërtojnë modelin e zëri të dikujt,” tha shefi i teknologjisë Dr Hugh Thompson. “Dhe ky model është thuajse i përsosur”, ka shtuar ai.
Dr. Alexander Adam, një shkencëtar i të dhënave në Fakultetin e specializuar të AI, tha se montimi i këtyre audiove kërkon një investim të konsiderueshëm të kohës dhe të parave.
"Kjo është për shkak se keni nevojë për një shumë të fuqisë llogaritëse dhe veshi i njeriut është shumë i ndjeshëm ndaj një gamë të gjerë frekuencash, kështu që marrja e modelit të vërtetë të shëndoshë merr shumë kohë. Që të arrihet një cilësi e mirë e audios, nevojitet për të kapur ritmet e intonacionin e modeleve të folur në një objektiv” shtoi ai.
Copyright © Gazeta “Si”
Të gjitha të drejtat e këtij materiali janë pronë ekskluzive dhe e patjetërsueshme e Gazetës “Si”, sipas Ligjit Nr.35/2016 “Për të drejtat e autorit dhe të drejtat e tjera të lidhura me to”. Ndalohet kategorikisht kopjimi, publikimi, shpërndarja, tjetërsimi etj, pa autorizimin e Gazetës “Si”, në të kundërt çdo shkelës do mbajë përgjegjësi sipas nenit 179 të Ligjit 35/2016.