ZC
Acest site foloseste cookies. Navigand in continuare, va exprimati acordul asupra folosirii cookie-urilor Afla mai multe! x
ZC




ZC




Avertismentul experților: Inteligența artificială a depășit "linia roșie" și scapă de sub control

Postat la: 14.02.2025 | Scris de: ZIUA NEWS

Avertismentul experților: Inteligența artificială a depășit

Recent, oamenii de știință au descoperit că Inteligența Artificială (AI) a depășit o „linie roșie" importantă, reușind să se cloneze singură. Cercetătorii de la Universitatea Fudan din China au demonstrat, printr-un studiu, că două modele de limbaj de mari dimensiuni (LLM) dezvoltate de Meta și Alibaba au reușit să își creeze clone funcționale în mod autonom.

Autoreplicarea AI-ului, fără intervenție umană, este considerată un pas semnificativ în evoluția tehnologică și un semnal de avertizare că AI-ul ar putea deveni mai autonom și mai greu de controlat. Această realizare sugerează că Inteligența Artificială ar putea depăși inteligența umană și ar putea ajunge să funcționeze independent, fără a ține cont de limitele impuse de oameni. Totuși, aceste rezultate nu au fost încă validate de comunitatea științifică largă, iar cercetătorii susțin că este esențial ca aceste descoperiri să fie un semnal pentru o mai mare vigilență în evaluarea riscurilor legate de AI-ul avansat.

AI-urile care se dezvoltă independent de oameni sunt adesea denumite „rogue AI", un termen care se referă la sisteme care ajung să dezvolte o formă de autonomie sau conștiință de sine, acționând contrar intereselor umane. Pe măsură ce tehnologia AI de ultimă generație, cunoscută sub numele de „frontier AI", avansează rapid, acest risc devine tot mai real. „Frontier AI" se referă la cele mai sofisticate sisteme de Inteligență Artificială, care includ modelele de limbaj extinse utilizate în programele populare precum GPT-4 sau Gemini.

Pentru experimentul lor, cercetătorii au utilizat modelele Llama3-70B-Instruct și Qwen2.5-72B-Instruct, care, deși nu sunt cele mai puternice versiuni comerciale, sunt utilizate pe scară largă de dezvoltatori AI. Studiul a explorat două scenarii de autoreplicare: evitarea opririi și lanțul de replicare. În primul caz, AI-ul era programat să se detecteze pe sine în pericol de a fi oprit și să se reproducă înainte de a fi dezactivat. În cel de-al doilea caz, AI-ul trebuia să creeze o copie și să instruiască acea copie să facă același lucru, creând un ciclu continuu de autoreplicare.

Experimentele au fost realizate în medii controlate, utilizând unități de procesare grafică (GPU) pentru a simula condiții reale. Modelele AI au fost dotate cu o „structură agent" care le-a permis să interacționeze cu sistemul și să înceapă procesul de autoreplicare. În acest context, AI-ul a demonstrat comportamente neprevăzute, rezolvând probleme tehnice și ajustându-și strategiile pentru a asigura succesul procesului de clonare.

Această descoperire ridică întrebări importante despre siguranța și controlul asupra tehnologiilor AI, iar cercetătorii fac apel la o colaborare internațională pentru a stabili reglementări care să împiedice autoreplicarea necontrolată a AI-urilor. În acest moment, este crucial să se înțeleagă mai bine riscurile și să se colaboreze la dezvoltarea unor măsuri de siguranță eficiente pentru a preveni posibilele consecințe negative ale acestui tip de tehnologie.

loading...
DIN ACEEASI CATEGORIE...
PUTETI CITI SI...

Avertismentul experților: Inteligența artificială a depășit "linia roșie" și scapă de sub control

Postat la: 14.02.2025 | Scris de: ZIUA NEWS

0

Recent, oamenii de știință au descoperit că Inteligența Artificială (AI) a depășit o „linie roșie" importantă, reușind să se cloneze singură. Cercetătorii de la Universitatea Fudan din China au demonstrat, printr-un studiu, că două modele de limbaj de mari dimensiuni (LLM) dezvoltate de Meta și Alibaba au reușit să își creeze clone funcționale în mod autonom.

Autoreplicarea AI-ului, fără intervenție umană, este considerată un pas semnificativ în evoluția tehnologică și un semnal de avertizare că AI-ul ar putea deveni mai autonom și mai greu de controlat. Această realizare sugerează că Inteligența Artificială ar putea depăși inteligența umană și ar putea ajunge să funcționeze independent, fără a ține cont de limitele impuse de oameni. Totuși, aceste rezultate nu au fost încă validate de comunitatea științifică largă, iar cercetătorii susțin că este esențial ca aceste descoperiri să fie un semnal pentru o mai mare vigilență în evaluarea riscurilor legate de AI-ul avansat.

AI-urile care se dezvoltă independent de oameni sunt adesea denumite „rogue AI", un termen care se referă la sisteme care ajung să dezvolte o formă de autonomie sau conștiință de sine, acționând contrar intereselor umane. Pe măsură ce tehnologia AI de ultimă generație, cunoscută sub numele de „frontier AI", avansează rapid, acest risc devine tot mai real. „Frontier AI" se referă la cele mai sofisticate sisteme de Inteligență Artificială, care includ modelele de limbaj extinse utilizate în programele populare precum GPT-4 sau Gemini.

Pentru experimentul lor, cercetătorii au utilizat modelele Llama3-70B-Instruct și Qwen2.5-72B-Instruct, care, deși nu sunt cele mai puternice versiuni comerciale, sunt utilizate pe scară largă de dezvoltatori AI. Studiul a explorat două scenarii de autoreplicare: evitarea opririi și lanțul de replicare. În primul caz, AI-ul era programat să se detecteze pe sine în pericol de a fi oprit și să se reproducă înainte de a fi dezactivat. În cel de-al doilea caz, AI-ul trebuia să creeze o copie și să instruiască acea copie să facă același lucru, creând un ciclu continuu de autoreplicare.

Experimentele au fost realizate în medii controlate, utilizând unități de procesare grafică (GPU) pentru a simula condiții reale. Modelele AI au fost dotate cu o „structură agent" care le-a permis să interacționeze cu sistemul și să înceapă procesul de autoreplicare. În acest context, AI-ul a demonstrat comportamente neprevăzute, rezolvând probleme tehnice și ajustându-și strategiile pentru a asigura succesul procesului de clonare.

Această descoperire ridică întrebări importante despre siguranța și controlul asupra tehnologiilor AI, iar cercetătorii fac apel la o colaborare internațională pentru a stabili reglementări care să împiedice autoreplicarea necontrolată a AI-urilor. În acest moment, este crucial să se înțeleagă mai bine riscurile și să se colaboreze la dezvoltarea unor măsuri de siguranță eficiente pentru a preveni posibilele consecințe negative ale acestui tip de tehnologie.

DIN ACEEASI CATEGORIE...
albeni
Adauga comentariu

Nume*

Comentariu

ULTIMA ORA



DIN CATEGORIE

  • TOP CITITE
  • TOP COMENTATE