Një firmë e sigurisë thotë se audio-bisedat më zë fals po përdoret për të vjedhur miliona paund. Kompania e sigurisë Symantec tha se kishte konstatuar tri raste të audios ku drejtues të ndryshëm në kompani të rëndësishme kanë rënë preh e këtyre mashtruesve të sofistikuar dhe kanë bërë transferime të shumave të mëdha parash.
Këta mashtrues profesionistë ose siç quhen Deepfakes përdorin inteligjencën artificiale për të krijuar imitimin e zërave të njerëzve të njohur. “Sistemi i UA mund të trajnohej duke përdorur shumë audio të regjistruara për të arritur qëllimin që hakerat kërkojnë” thotë Symantec.“Videot e njerëzve të famshëm që përdoren janë nga më të ndryshmet, nga konferencat deri tek bisedat e tyre të zakonshme. Pasi ata grumbullojnë një sasi të konsiderueshme videosh, arrijnë të ndërtojnë modelin e zëri të dikujt,” tha shefi i teknologjisë Dr Hugh Thompson. “Dhe ky model është thuajse i përsosur”, ka shtuar ai.
Dr. Alexander Adam, një shkencëtar i të dhënave në Fakultetin e specializuar të AI, tha se montimi i këtyre audiove kërkon një investim të konsiderueshëm të kohës dhe të parave.
“Kjo është për shkak se keni nevojë për një shumë të fuqisë llogaritëse dhe veshi i njeriut është shumë i ndjeshëm ndaj një gamë të gjerë frekuencash, kështu që marrja e modelit të vërtetë të shëndoshë merr shumë kohë. Që të arrihet një cilësi e mirë e audios, nevojitet për të kapur ritmet e intonacionin e modeleve të folur në një objektiv” shtoi ai. / SI