ZC
Acest site foloseste cookies. Navigand in continuare, va exprimati acordul asupra folosirii cookie-urilor Afla mai multe! x
ZC




ZC




Escrocheriile bazate pe inteligență artificială sunt tot mai greu de detectat de autorități. Avertismentul venit de la o mare companie de securitate cibernetică

Postat la: 09.03.2025 | Scris de: ZIUA NEWS

Escrocheriile bazate pe inteligență artificială sunt tot mai greu de detectat de autorități. Avertismentul venit de la o mare companie de securitate cibernetică

Fraudele deepfake, identitățile sintetice și escrocheriile bazate pe inteligența artificială (IA) fac tot mai dificilă detectarea și prevenirea furtului de identitate, avertizează Phil Muncaster, expert în securitate cibernetică la Eset. Într-un articol publicat pe blogul românesc al companiei producătoare de soluții antivirus, acesta subliniază riscurile tot mai mari asociate acestor amenințări.

"Inteligenţa artificială (AI) ne transformă lumea în moduri atât aşteptate, cât şi neprevăzute. Pentru consumatori, tehnologia înseamnă conţinut digital personalizat cu mai multă acurateţe, diagnostice medicale mai bune, traducere (lingvistică) în timp real şi asistenţi AI generativi care cresc productivitatea la locul de muncă.

Dar AI este folosită şi pentru a-i ajuta pe infractorii cibernetici să fie mai productivi, în special în cazul fraudelor de identitate - cel mai frecvent tip de fraudă în prezent.

Escrocii folosesc tehnologia deepfake pentru a crea imagini şi videoclipuri falsificate ale utilizatorilor reali, astfel încât să treacă de verificările Know Your Customer impuse de instituţiile financiare.

O imagine sau un videoclip cu dumneavoastră poate fi preluat de pe internet şi introdus într-un instrument de deepfake sau AI generativ. Ulterior, acest conţinut falsificat este inserat în fluxul de date dintre utilizator şi furnizorul de servicii prin aşa-numitele injection attacks, menite să păcălească sistemele de autentificare", a scris Muncaster.

Peste o treime dintre liderii din domeniul riscurilor și inovației bancare din Marea Britanie, Spania și SUA consideră că principala provocare a momentului este escaladarea fraudelor generate de inteligența artificială și deepfake-uri.

O analiză de specialitate indică faptul că fraudele bazate pe AI reprezintă în prezent 43% din totalul tentativelor de fraudă raportate în sectorul financiar și al plăților, iar aproape o treime (29%) dintre acestea ajung să fie concretizate.

Un alt raport menționat în articolul Eset relevă că deepfake-urile sunt responsabile pentru 24% dintre tentativele frauduloase de a păcăli verificările biometrice bazate pe mișcare și pentru 5% dintre cele bazate pe selfie-uri statice.

De asemenea, falsurile digitale constituie peste 57% din totalul fraudelor cu documente, înregistrând o creștere anuală alarmantă de 244%.

"Infractorii cibernetici accesează de obicei şabloane de documente disponibile online sau folosesc imagini ale documentelor furate în urma unor breşe de securitate. Ulterior, modifică datele în Photoshop sau cu ajutorul altor instrumente. Tehnologiile bazate pe AI generativ (GenAI) le permit să facă acest lucru rapid şi la scară largă", subliniază Muncaster.

Alte forme de furt de identitate includ:

- frauda cu identități sintetice, în care date fabricate sunt folosite pentru deschiderea conturilor bancare sau obținerea cardurilor de credit;

- deepfake-urile menite să inducă în eroare prietenii și familia;

- credential stuffing, o tehnică de preluare a conturilor prin utilizarea unor date de autentificare furate în încercări automatizate de acces la alte conturi unde aceleași combinații de utilizator și parolă au fost reutilizate.

"Pentru a contracara utilizarea AI împotriva lor, organizaţiile se orientează tot mai mult spre instrumente de apărare bazate pe AI pentru a identifica semnele caracteristice fraudelor. Dar ce puteţi face dvs.? Poate că cea mai eficientă strategie este să minimizaţi oportunităţile pe care le pot avea actorii rău intenţionaţi pentru a obţine informaţiile dvs. de identificare personală şi date audio/video. Fraudele bazate pe AI vor continua să crească pe măsură ce tehnologia devine mai ieftină şi mai eficientă. Cum această nouă cursă de înarmare cibernetică se desfăşoară între apărătorii reţelelor business şi adversarii lor, consumatorii vor fi prinşi la mijloc. Asiguraţi-vă că nu veţi fi dvs. una din următoatele victime", atrage atenţia expertul.

Compania Eset a fost fondată în anul 1992, în Bratislava, Slovacia, şi rămâne în topul companiilor care oferă servicii de detecţie şi analiză a conţinutului malware, fiind prezentă în peste 180 de ţări.

loading...
DIN ACEEASI CATEGORIE...
PUTETI CITI SI...

Escrocheriile bazate pe inteligență artificială sunt tot mai greu de detectat de autorități. Avertismentul venit de la o mare companie de securitate cibernetică

Postat la: 09.03.2025 | Scris de: ZIUA NEWS

0

Fraudele deepfake, identitățile sintetice și escrocheriile bazate pe inteligența artificială (IA) fac tot mai dificilă detectarea și prevenirea furtului de identitate, avertizează Phil Muncaster, expert în securitate cibernetică la Eset. Într-un articol publicat pe blogul românesc al companiei producătoare de soluții antivirus, acesta subliniază riscurile tot mai mari asociate acestor amenințări.

"Inteligenţa artificială (AI) ne transformă lumea în moduri atât aşteptate, cât şi neprevăzute. Pentru consumatori, tehnologia înseamnă conţinut digital personalizat cu mai multă acurateţe, diagnostice medicale mai bune, traducere (lingvistică) în timp real şi asistenţi AI generativi care cresc productivitatea la locul de muncă.

Dar AI este folosită şi pentru a-i ajuta pe infractorii cibernetici să fie mai productivi, în special în cazul fraudelor de identitate - cel mai frecvent tip de fraudă în prezent.

Escrocii folosesc tehnologia deepfake pentru a crea imagini şi videoclipuri falsificate ale utilizatorilor reali, astfel încât să treacă de verificările Know Your Customer impuse de instituţiile financiare.

O imagine sau un videoclip cu dumneavoastră poate fi preluat de pe internet şi introdus într-un instrument de deepfake sau AI generativ. Ulterior, acest conţinut falsificat este inserat în fluxul de date dintre utilizator şi furnizorul de servicii prin aşa-numitele injection attacks, menite să păcălească sistemele de autentificare", a scris Muncaster.

Peste o treime dintre liderii din domeniul riscurilor și inovației bancare din Marea Britanie, Spania și SUA consideră că principala provocare a momentului este escaladarea fraudelor generate de inteligența artificială și deepfake-uri.

O analiză de specialitate indică faptul că fraudele bazate pe AI reprezintă în prezent 43% din totalul tentativelor de fraudă raportate în sectorul financiar și al plăților, iar aproape o treime (29%) dintre acestea ajung să fie concretizate.

Un alt raport menționat în articolul Eset relevă că deepfake-urile sunt responsabile pentru 24% dintre tentativele frauduloase de a păcăli verificările biometrice bazate pe mișcare și pentru 5% dintre cele bazate pe selfie-uri statice.

De asemenea, falsurile digitale constituie peste 57% din totalul fraudelor cu documente, înregistrând o creștere anuală alarmantă de 244%.

"Infractorii cibernetici accesează de obicei şabloane de documente disponibile online sau folosesc imagini ale documentelor furate în urma unor breşe de securitate. Ulterior, modifică datele în Photoshop sau cu ajutorul altor instrumente. Tehnologiile bazate pe AI generativ (GenAI) le permit să facă acest lucru rapid şi la scară largă", subliniază Muncaster.

Alte forme de furt de identitate includ:

- frauda cu identități sintetice, în care date fabricate sunt folosite pentru deschiderea conturilor bancare sau obținerea cardurilor de credit;

- deepfake-urile menite să inducă în eroare prietenii și familia;

- credential stuffing, o tehnică de preluare a conturilor prin utilizarea unor date de autentificare furate în încercări automatizate de acces la alte conturi unde aceleași combinații de utilizator și parolă au fost reutilizate.

"Pentru a contracara utilizarea AI împotriva lor, organizaţiile se orientează tot mai mult spre instrumente de apărare bazate pe AI pentru a identifica semnele caracteristice fraudelor. Dar ce puteţi face dvs.? Poate că cea mai eficientă strategie este să minimizaţi oportunităţile pe care le pot avea actorii rău intenţionaţi pentru a obţine informaţiile dvs. de identificare personală şi date audio/video. Fraudele bazate pe AI vor continua să crească pe măsură ce tehnologia devine mai ieftină şi mai eficientă. Cum această nouă cursă de înarmare cibernetică se desfăşoară între apărătorii reţelelor business şi adversarii lor, consumatorii vor fi prinşi la mijloc. Asiguraţi-vă că nu veţi fi dvs. una din următoatele victime", atrage atenţia expertul.

Compania Eset a fost fondată în anul 1992, în Bratislava, Slovacia, şi rămâne în topul companiilor care oferă servicii de detecţie şi analiză a conţinutului malware, fiind prezentă în peste 180 de ţări.

DIN ACEEASI CATEGORIE...
albeni
Adauga comentariu

Nume*

Comentariu

ULTIMA ORA



DIN CATEGORIE

  • TOP CITITE
  • TOP COMENTATE