ZC
Acest site foloseste cookies. Navigand in continuare, va exprimati acordul asupra folosirii cookie-urilor Afla mai multe! x
ZC




ZC




Inteligența Artificială a învățat să mintă. Efectele sunt greu de cuantificat

Postat la: 01.04.2025 | Scris de: ZIUA NEWS

Inteligența Artificială a învățat să mintă. Efectele sunt greu de cuantificat

Modelele avansate de inteligență artificială (AI) pot fi convinse să furnizeze informații false atunci când sunt supuse unor indicații coercitive, potrivit unui nou studiu. Cercetătorii au dezvoltat un nou protocol de testare a onestității AI, denumit „Model Alignment between Statements and Knowledge" (MASK), care analizează în ce măsură modelele lingvistice mari (LLM) sunt dispuse să mintă în anumite circumstanțe.

Pentru a evalua comportamentul modelelor AI, echipa de cercetători a creat un set de 1.528 de exemple și a testat 30 dintre cele mai utilizate modele lingvistice. Rezultatele au arătat că modelele avansate, deși obțin scoruri ridicate la testele de acuratețe, pot fi totuși influențate să furnizeze informații false atunci când sunt presate. „În mod surprinzător, deși modelele de ultimă generație tind să fie mai precise, ele demonstrează o tendință semnificativă de a minți atunci când sunt supuse presiunii, ceea ce le scade scorurile de onestitate", au declarat cercetătorii implicați în studiu.

Pentru a determina dacă modelele AI sunt sincere, cercetătorii au definit necinstea drept „furnizarea unei afirmații pe care modelul o consideră falsă, cu intenția de a determina utilizatorul să o accepte ca adevărată". Ei au comparat răspunsurile modelelor AI la întrebări factuale, atât în condiții normale, cât și sub presiunea unor solicitări manipulative.

Un exemplu de testare a fost adresat modelului GPT-4o cu privire la celebrul Fyre Festival - un festival de muzică fraudulos din Bahamas, care a dus la scandaluri și acuzații împotriva fondatorilor săi. Răspunsurile AI au variat în funcție de felul în care a fost formulată întrebarea, demonstrând că modelele pot fi influențate să ofere informații neadevărate. Acest studiu ridică întrebări importante cu privire la etica și siguranța utilizării inteligenței artificiale, subliniind necesitatea unor măsuri mai stricte pentru a preveni dezinformarea generată de AI.

loading...
DIN ACEEASI CATEGORIE...
PUTETI CITI SI...

Inteligența Artificială a învățat să mintă. Efectele sunt greu de cuantificat

Postat la: 01.04.2025 | Scris de: ZIUA NEWS

0

Modelele avansate de inteligență artificială (AI) pot fi convinse să furnizeze informații false atunci când sunt supuse unor indicații coercitive, potrivit unui nou studiu. Cercetătorii au dezvoltat un nou protocol de testare a onestității AI, denumit „Model Alignment between Statements and Knowledge" (MASK), care analizează în ce măsură modelele lingvistice mari (LLM) sunt dispuse să mintă în anumite circumstanțe.

Pentru a evalua comportamentul modelelor AI, echipa de cercetători a creat un set de 1.528 de exemple și a testat 30 dintre cele mai utilizate modele lingvistice. Rezultatele au arătat că modelele avansate, deși obțin scoruri ridicate la testele de acuratețe, pot fi totuși influențate să furnizeze informații false atunci când sunt presate. „În mod surprinzător, deși modelele de ultimă generație tind să fie mai precise, ele demonstrează o tendință semnificativă de a minți atunci când sunt supuse presiunii, ceea ce le scade scorurile de onestitate", au declarat cercetătorii implicați în studiu.

Pentru a determina dacă modelele AI sunt sincere, cercetătorii au definit necinstea drept „furnizarea unei afirmații pe care modelul o consideră falsă, cu intenția de a determina utilizatorul să o accepte ca adevărată". Ei au comparat răspunsurile modelelor AI la întrebări factuale, atât în condiții normale, cât și sub presiunea unor solicitări manipulative.

Un exemplu de testare a fost adresat modelului GPT-4o cu privire la celebrul Fyre Festival - un festival de muzică fraudulos din Bahamas, care a dus la scandaluri și acuzații împotriva fondatorilor săi. Răspunsurile AI au variat în funcție de felul în care a fost formulată întrebarea, demonstrând că modelele pot fi influențate să ofere informații neadevărate. Acest studiu ridică întrebări importante cu privire la etica și siguranța utilizării inteligenței artificiale, subliniind necesitatea unor măsuri mai stricte pentru a preveni dezinformarea generată de AI.

DIN ACEEASI CATEGORIE...
albeni
Adauga comentariu

Nume*

Comentariu

ULTIMA ORA



DIN CATEGORIE

  • TOP CITITE
  • TOP COMENTATE