Home VestiEkonomija „Milioni“ ljudi mogli bi da postanu žrtve prevara zbog kloniranja svog glasa

„Milioni“ ljudi mogli bi da postanu žrtve prevara zbog kloniranja svog glasa

by bifadmin

„Milioni“ ljudi mogli bi da postanu žrtve prevara koje koriste veštačku inteligenciju za kloniranje svog glasa, upozorila je britanska banka.

Starling banka, onlajn zajmodavac, kaže da su prevaranti u stanju da koriste veštačku inteligenciju da repliciraju nečiji glas iz samo tri sekunde zvuka koji se nalazi u, na primer, video snimku koji je ta osoba objavila na mreži.

Prevaranti tada mogu da identifikuju prijatelje i članove porodice te osobe i da koriste glas kloniran veštačkom inteligencijom da bi uputili telefonski poziv da traže novac, navodi CNN.

Ove vrste prevara imaju potencijal da „uhvate milione“, rekla je Starling banka u saopštenju za javnost u sredu.

Već su pogođene stotine

Prema istraživanju, koje se vršilo na više od 3.000 odraslih koje je banka sprovela sa Mortar Research prošlog meseca, više od četvrtine ispitanika je reklo da su bili na meti prevara kloniranja glasa pomoću veštačke inteligencije u poslednjih 12 meseci.

Istraživanje je takođe pokazalo da 46% ispitanika nije bilo svesno da takve prevare postoje, a da bi 8% poslalo onoliko novca koliko je zatražio prijatelj ili član porodice, čak i ako im se čini da je poziv čudan.

„Ljudi redovno objavljuju sadržaj na mreži koji ima snimke njihovog glasa, a da nisu ni slutili da ih to čini ranjivijim na prevarante“, rekla je u saopštenju za štampu Liza Grejm, direktorka za bezbednost informacija u Starling banci.

Banka ohrabruje ljude da sa svojim voljenima dogovore „sigurnu frazu“ – jednostavnu, nasumičnu frazu koja se lako pamti i koja se razlikuje od drugih lozinki – koja se može koristiti za verifikaciju njihovog identiteta preko telefona.

Savetuje se da ne delite sigurnu frazu preko poruka, što bi prevarantima moglo olakšati da saznaju, ali, ako se deli na ovaj način, poruku treba izbrisati kada je druga osoba vidi.

Kako AI postaje sve veštija u oponašanju ljudskih glasova, raste zabrinutost oko njenog potencijala da naudi ljudima, na primer, pomažući kriminalcima da pristupe njihovim bankovnim računima i šire dezinformacije.

Ranije ove godine, OpenAI, proizvođač generativnog AI chatbot ChatGPT, predstavio je svoj alat za replikaciju glasa, Voice Engine, ali ga u toj fazi nije učinio dostupnim javnosti, navodeći „potencijal za zloupotrebu sintetičkog glasa“.

Izvor: B92.net

Foto: Pixabay

Pročitajte i ovo...

Ostavite komentar