O bancă britanică a avertizat că „milioane” de persoane ar putea deveni victime ale înșelătoriilor care folosesc inteligența artificială (AI) pentru a le clona vocea, potrivit CNN.
Starling Bank, un creditor exclusiv online, a declarat că escrocii sunt capabili să utilizeze inteligența artificială pentru a reproduce vocea unei persoane din doar trei secunde de sunet găsite, de exemplu, într-un videoclip postat online de persoana respectivă. Escrocii pot identifica apoi prietenii și membrii familiei persoanei și pot folosi vocea clonată de AI pentru a organiza un apel telefonic prin care să ceară bani.
Aceste tipuri de escrocherii au potențialul de a „păcăli milioane de persoane”, a declarat Starling Bank într-un comunicat de presă transmis miercuri.
Acestea au afectat deja sute de persoane. Potrivit unui sondaj realizat luna trecută de bancă împreună cu Mortar Research pe un eșantion de peste 3.000 de adulți, mai mult de un sfert dintre respondenți au declarat că au fost vizați de o înșelătorie prin clonarea vocii de către AI în ultimele 12 luni.
Sondajul a arătat, de asemenea, că 46% dintre respondenți nu știau că există astfel de escrocherii și că 8% ar trimite atât de mulți bani cât le-ar cere un prieten sau un membru al familiei, chiar dacă apelul li s-ar părea ciudat.
„Oamenii postează frecvent conținut online cu înregistrări ale vocii lor”
„Oamenii postează în mod regulat conținut online care conține înregistrări ale vocii lor, fără să își imagineze vreodată că acest lucru îi face mai vulnerabili în fața escrocilor”, a declarat Lisa Grahame, Chief Information Security Officer la Starling Bank, în comunicatul de presă.
Banca încurajează oamenii să convină cu cei dragi asupra unei „fraze de siguranță” – o frază simplă, aleatorie, ușor de reținut și diferită de celelalte parole – care poate fi utilizată pentru a le verifica identitatea la telefon.
Creditorul recomandă să nu se împărtășească fraza de siguranță prin text, ceea ce ar putea facilita aflarea acesteia de către escroci, dar, dacă este împărtășită în acest mod, mesajul ar trebui șters după ce cealaltă persoană l-a văzut.
Pe măsură ce inteligența artificială devine din ce în ce mai capabilă să imite vocile umane, cresc îngrijorările cu privire la potențialul acesteia de a dăuna oamenilor, de exemplu, ajutând infractorii să le acceseze conturile bancare și să răspândească informații false.
La începutul acestui an, OpenAI, creatorul chatbot-ului cu inteligență artificială generativă ChatGPT, a prezentat instrumentul său de replicare a vocii, Voice Engine, dar nu l-a pus la dispoziția publicului în acel stadiu, citând „potențialul de utilizare abuzivă a vocii sintetice”.