Etapele până când computerele ar putea prelua controlul asupra omenirii - Cât de departe ar putea ajunge dezvoltarea AGI
Postat la: 26.12.2023 | Scris de: ZIUA NEWS
0
Ideea de „Inteligență Artificială Generală" (AGI), dar și de „Singularitate tehnologică", momentul când mașinile ar putea deveni conștiente și ar putea depăși net inteligența umană, nasc scenarii fie alarmiste, fie mai mult de tip SF.
Sam Altman, șeful OpenAI, spunea cu doar câteva zile înainte de izbucnirea faimosului scandal de la companie, că marele țel este construirea unei „superinteligențe". AGI (Inteligență Artificială Generală) se referă la un nivel de dezvoltare în domeniul inteligenței artificiale în care un sistem este capabil să desfășoare orice sarcină intelectuală pe care o poate realiza un om.
Zece zile mai târziu, Reuters scria că, înainte ca Sam Altman să fie, timp de patru zile, înlăturat de la șefia OpenAI, câțiva cercetători din companie au trimis board-ului de conducere o scrisoare despre o descoperire capitală în AI care ar putea fi un „pericol pentru umanitate",
Proiectul descris se numește Q*, iar sursele citate de Reuters spuneau că acest nou model a putut rezolva probleme complexe de matematică pe care modele anterioare - și foarte sofisticate - dezvoltate de OpenAI nu le-a putut rezolva. Erau cu siguranță exagerări, iar așa-zisul „pericol pentru umanitate" nu este aproape de noi. Însă merită clar discutat subiectul, fiindcă va reveni des în anii următori.
2023 a fost în tehnologie anul discuțiilor interminabile despre inteligența artificială și despre lucrurile bune, dar și rele, pe care ni le-ar putea aduce aceste avansuri rapide din domeniu. Au avertizat și cele mai luminate minți ale omenirii că am putea-o lua pe căi greșite, în timp alți oameni super-intelgenți au spus că vom avea foarte multe de câștigat de pe urma acestor descoperiri ce ne vor simplifica viața.
Și mai interesant a fost faptul că, inclusiv șefi de companii ce lucrează la dezvoltarea unor produse AI avansate, au cerut ca autoritățile să reglementeze domeniul, pentru a fi evitate derapajele.
Foarte mulți au spus că dezvoltarea AI trebuie să se facă respectând anumite reguli, iar Uniunea Europeană a și venit cu un set concret de propuneri de reglementare. Nu este perfect, dar este un început.
Singularitatea - un moment la care visează fanii romanelor SF
Singularitatea tehnologică este un concept ipotetic care se referă la un punct în timp în viitor când Inteligența Artificială va deveni atât de avansată, încât va depăși inteligența umană. Acest lucru ar putea avea un impact profund asupra societății umane, deoarece va duce la o schimbare rapidă și fundamentală a modului în care trăim și lucrăm.
Ideea centrală este că, la un anumit punct, inteligența artificială sau alte tehnologii pot deveni atât de avansate, încât vor depăși înțelegerea sau capacitatea de control a oamenilor. Aici este și marea îngrijorare: că omenirea va pierde controlul în fața acestei Singularități.
Acest concept este asociat cu ideea că evenimentele ulterioare devin imprevizibile, deoarece o inteligență superioară ar putea influența rapid și semnificativ direcția evoluției tehnologice și a societății, fără ca noi, oamenii, să avem cum ne opune.
Dar NU se știe dacă omenirea va ajunge atât de departe și dacă va exista vreodată o „Singularitate AI". Unii experți spun că ar putea apărea peste câteva zeci de ani, alții că abia peste 200-300 de ani, iar alții, că niciodată.
Despre cum s-ar putea ajunge la o singularitate AI au scris mai mult autorii de romane SF, fiindcă trebuie multă imaginație. O variantă ar fi să ajungem să putem adăuga la inteligența noastră umană puterea de procesare a unui supercomputer, iar în acest fel am deveni versiuni „supercharged" ale noi înșine.
O altă variantă, tot foarte SF, ar fi ca supercomputerele să învețe să „gândească" și să se alieze pentru a forma un „creier global".
Acea super-mașină ar trebui să ajungă să aibă conștiință și să se poată îmbunătăți pe sine într-un mod super-rapid și total autonom de intervențiile oamenilor. Ce le-ar lua oamenilor secole, o super-mașină ar putea reuși la nivel de dezvoltare în ani sau luni. Ar fi o schimbare cum nu s-a mai petrecut de la începuturile omenirii pe Pământ.
Însă o problemă este că nu s-a căzut de acord asupra unei definiție a conștiinței și nici nu o putem cuantifica. Însă o super-inteligență ar trebui să înțeleagă lumea din jurul ei, să aibă conștiință de sine și să poată planifica viitorul, stabilind diferite țeluri și construind planuri clare pentru a le atinge.
Ar trebui ca o super-inteligență artificială să facă previziuni complexe ale viitorului îndepărtat și să ia în calcul aspecte care nouă, oamenilor, ne scapă, fiindcă acea mașinărie va avea la dispoziție mai multe date. Ar trebui ca o mașinărie să își poată stabili propriile obiective, iar aici este marea întrebare: vor fi aceste obiective prietenoase cu oamenii sau oamenii vor fi văzuți ca ceva ce trebui înlăturat?
Dacă într-o zi roboții vor deveni mai inteligenți decât oamenii, ei ne-ar putea da la o parte, ca pe niște relicve ale evoluției. Scenariul negativist ar fi că acești roboți se vor autoreplica, ar deveni tot mai inteligenți de la generație la generație și această nebunie va duce la secătuirea planetei de resursele ei. Scenarii și mai nebunești spun că „roboții" superinteligenți ar putea apoi să se năpustească în spațiul cosmic pentru a-și continua căutarea de inteligență, până când vor ajunge la alte planete, stele și galaxii, cu scopul de a le converti în computere. Unii cred că ar putea consuma întregul univers. Scenariile sunt enumerate de Michio Kaku, celebru autor cunoscut și pentru aparițiile în numeroase documentare despre știință.
Dar întrucât planetele, stelele și galaxiile se află la distanțe incredibil de mari, s-ar putea ca lacomul computer să modifice legile fizicii, în așa fel încât să se poată deplasa mai rapide decât lumina li, cu apetitul lui enorm, să consume pe de-a-ntregul sisteme stelare și galaxii.
Totuși, scenariul cel mai probabil este o AI „prietenoasă", fiindcă putem bănui că oamenii de știință se vor asigura că roboții nu vor deveni periculoși. Vor avea probabil un „kill switch", un mecanism de siguranță care poate fi acționat de om în orice moment, mai ales dacă „robotul" manifestă semnele unui comportament turbulent. Ar trebui să fie închis rapid, cu o simplă comandă.
Când s-a născut conceptul de singularitate „tech"
Conceptul de „singularitate" provine din astrofizică și se referă la un punct de gravitație infinită, din care nimic nu poate evada, conceptul fiind făcut celebru de teoriile despre negre și de documentarele ce descriu aceste zone extreme din Univers.
În 1958, doi matematicieni menționau, pentru prima oară, ideea unei „singularități AI", adică punctul în care roboții vor fi mai inteligenți decât oamenii și vor fi capabili și să facă auto-replicare. Sunt filme cu armate de roboți autoreplicanți ce creează roboți tot mai buni, de la generație la generație. Cele mai pesimiste scenarii spun că acei roboți ultra-inteligenți vor fi agresivi și, în dorința de a produce versiuni și mai performante, vor devora resursele planetei și apoi vor trece să în spațiu.
Unul dintre cei doi matematicieni era John von Neumann, cel care a avut o contribuție importantă la dezvoltarea computerelor electronice. El a fost printre primii care s-au ocupat de determinarea numărului minim de condiții necesare pentru ca o mașină să poată crea o copie a ei înseși.
Când va apărea o singularitate? Cei mai optimiști experți au estimat că va fi în 20 de ani, iar cei mai pesimiști, în 1.000 de ani.
La 1993, un cercetător pe nume Verner Vinge spunea: „În decurs de 30 de ani vom avea mijloacele tehnologice să creăm o inteligență supraumană. La scurt timp după aceea, epoca oamenilor se va sfârși. Aș fi surprins dacă acest eveniment se va produce înainte de 2005 sau după 2030".
Pe de altă parte, Douglas Hofstadter, care a scris mai multe cărți de succes, spunea așa: Aș fi foarte surprins dacă ceva care să aducă măcar de departe cu această situație s-ar produce în următorii 100, până la 200 de ani".
Dar mereu această idee de a crea o inteligență supra-umană a fost la 30-40 de ani distanță de momentul prognozei și nu s-a concretizat, fiindcă multe lucruri trebuie să se potrivească pentru ca o astfel de creație să devină realitate.
În anii 80 sau 90 ai secolului trecut au fost multe predicții care spuneau că prin 2020 sau 2030 computerele vor fi așa de avansate, încât ar ajunge capabile să realizeze copii ale lor însele. Nu s-a ajuns acolo, însă omenirea a izbutit alte progrese tehnologice ce erau greu de anticipat acum peste patru decenii.
Singularitatea este în general considerată a fi un eveniment negativ, deoarece ar putea duce la o pierdere a controlului uman asupra tehnologiei și la o schimbare rapidă și fundamentală a societății. În cel mai rău caz „roboții" ne-ar putea distruge cu totul, cum și-au imaginat scenariștii din diverse filme faimoase.
AGI - Artificial general intelligence
Nu știm dacă se va dezvolta vreodată o „singularitate AI", dar o etapă intermediară ar putea fi dezvoltarea a ceea ce se numește AGI.
În primul rând trebuie spus că AGI este o formă foarte avansată de AI, mult peste așa numitele sisteme „narrow AI" pe care le putem folosi în prezent și care sunt foarte bune la un singur lucru, nu la mai multe, iar nivelul lor cognitiv este net inferior celui uman.
La AGI lucrurile stau cu totul altfel.
Artificial General Intelligence (AGI), cunoscută și sub denumirea de inteligență artificială generală, se referă la un tip de AI care ar avea capacitatea de a înțelege, învăța și aplica cunoștințe într-un mod similar cu o minte umană.
Diferența cheie între AGI și alte forme net inferioare de inteligență artificială constă în capacitatea AGI de a se adapta și de a rezolva o gamă largă de sarcini intelectuale, fără a fi programată specific pentru fiecare sarcină în parte.
În esență, AGI ar putea să îndeplinească orice sarcină cognitivă pe care o poate realiza un om. Acest nivel de inteligență artificială ar implica o conștiință de sine, capacitatea de a înțelege contextul, de a învăța din experiență și de a aplica cunoștințele într-un mod flexibil și creativ.
AGI va fi la „ani lumină" de ChatGPT și Google Bard, care sunt forme specializate, ce abordează sarcini specifice precum recunoașterea vocală, traducerea limbajului natural sau jocurile de strategie. AGI va fi mult mult mai sofisticată.
O inteligență artificială generală ar trebui să fie capabilă să se descurce cu o gamă extrem de variată de sarcini și contexte, într-un mod asemănător cu o minte umană. Este complicat să ajungi așa de departe, întrucât majoritatea sistemelor de inteligență artificială devenite în prezent „vedete" sunt specializate într-o anumită sarcină sau domeniu.
O AGI ar trebui să poată înțelege contextul în care acționează, să învețe din experiență și să se adapteze la schimbările din mediu. Cuvântul cheie aici este să ÎNȚELEAGĂ.
Foarte îngrijorătoare este ideea de autonomie: ce faci dacă o AGI începe să acționeze pe cont propriu și, într-un fel sau altul, va face rău oamenilor? Așadar, dacă AGI devine capabilă să se auto-îmbunătățească și să ia decizii în mod autonom, există riscul pierderii controlului uman asupra sistemului.
AGI este o tehnologie, în timp ce Singularitatea este un eveniment. AGI este un concept care se referă la o mașină ce poate gândi și acționa precum un om. Singularitatea este un eveniment care se referă la momentul în care o mașină devine mai inteligentă decât un om.
Singularitatea poate sau nu să fie legată de dezvoltarea AGI, dar AGI este adesea considerată una dintre tehnologiile cheie care ar putea contribui la un astfel de eveniment.
AGI este posibilă, în timp ce Singularitatea este ipotetică. Nu există nicio garanție că Singularitatea va fi vreodată realizată. Singularitatea este un concept care este încă în curs de cercetare și discuție.
Unii cercetători și lideri din domeniul inteligenței artificiale sunt optimiști și consideră că AGI ar putea fi realizată în următorul deceniu, în timp ce alții sunt mai rezervați și cred că o super-inteligență nu va fi dezvoltată decât peste câteva sute de ani.
De ce este așa de greu din punct de vedere tehnic să fie dezvoltată o formă de Artificial General Intelligence?
Ar fi mai multe motive, iar unul ține de faptul că nu înțelegem pe deplin cum funcționează inteligența umană, așa că este dificilă proiectarea unui sistem AI care să o poată „imita".
Apoi, deși modelele de învățare automată sunt un instrument important în dezvoltarea AGI, ele încă sunt limitate în ceea ce pot învăța și face.
O altă dificultate ține de crearea de algoritmi care pot rezolva probleme complexe. AGI trebuie să poată rezolva o gamă largă de probleme ultra-complicate, iar dezvoltarea de algoritmi pe măsură este dificilă., cum ar fi planificarea, luarea deciziilor și rezolvarea problemelor. Crearea de algoritmi care pot rezolva aceste probleme este dificilă.
Un alt aspect, extrem de important, este că sunt uriașe costurile de computing pentru a dezvolta sisteme puternice de AI. Este nevoie de multe miliarde de dolari și de investitori care dacă i-ar da trebuie să creadă că au șanse de a-i recupera.
Estimarea momentului exact în care vom dezvolta o Artificial General Intelligence (AGI) este foarte dificilă din cauza numeroaselor incertitudini legate de progresele tehnologice, finanțare, descoperiri științifice și alte variabile.
DIN ACEEASI CATEGORIE...
ULTIMA ORA
-
Panică la bordul unui avion care e decolat de la Londra - Un mort și zeci de răniți din cauza turbulențelor
O persoană a murit după ce avionul care zbura de la Londra către Singapore s-a confruntat cu turbulențe. Zeci de persoane sunt rănite. Avionul a fost deviat către alt aeroport.
-
Belgia și Ungaria lansează controversatele portofele digitale și pașaportul pentru vaccinuri înaintea reglementărilor UE
Belgia și Ungaria deschid calea în ceea ce privește lansarea portofelelor de identitate digitale înainte de intrarea în vigoare, la sfârșitul acestei luni, a regulamentului eIDAS ("servicii de identificare electronică și servicii de încredere") 2.0 al UE și a portofelului EUDI Wallet.
-
Instagram-ul lui Zuckerberg avertizează că nu îl etichetează pe Tucker Carlson în postarea de "La mulți ani"
Un avertisment a apărut pe Instagram-ul lui Zuckerberg pentru toti aceia care doreau sa-i transmita "La mulți ani" jurnalistului Tucker Carlson. Reteaua sociala anunta ca nu-l va tagui pe prorpietarul contului pentru ca este indezirabil.
-
ONU susține că "ID-ul digital global" al lui Bill Gates este necesar pentru "combaterea schimbărilor climatice"
Organizația Națiunilor Unite și-a reluat demersul de a impune lumii ID-ul digital al lui Bill Gates, susținând că identitatea digitalizată este "crucială" în lupta împotriva schimbărilor climatice.
-
Ce pedeapsă riscă Dan Vîlceanu pentru că l-a bătut pe Florin Roman în Parlament până i-a dat sângele pe nas
O bătaie a avut loc într-o sală din Parlament. Liberalii Dan Vîlceanu și Florin Roman au fost protagoniști. Primul a fost agresorul, iar cel de-al doilea, victima. Vîlceanu s-a încăierat cu Florin Roman, iar la un moment dat fostul ministru i-ar fi aplicat un genunchi în nas colegului său, care are în plan să facă plângere penală.
-
Amenzi usturătoare și legislație aberantă pentru românii care doresc să facă țuică, pălincă, sau vin în gospodărie
Românii care intenționează să producă acasă țuică sau palincă trebuie să respecte anumite prevederi legale dacă nu vor să plătească amenzi usturătoare cuprinse între 2.000 și 5.000 lei.
-
Dan Puric: "Făt-Frumos în loc s-o iubească pe Ileana Cosânzeana s-a culcat cu Baba Cloanța și a ieșit Ursula von der Leyen!"
Dan Puric o ironizează pe șefa Comisiei Europene, Ursula von der Leyen. Marele actor și regizor a glumit, afirmând că nemțoaica este rezultatul unei relații nefirești: cea dintre Făt-Frumos și Baba Cloanța.
-
Inlocuiți Polonia cu România în text și o sa aflați adevarul: O colonie nu se poate ridica în picioare ca un stat suveran!
Articolul de mai jos a apărut pe siteul Brussels Signal și a fost scris de francezo-polonezul Daniel Foubert. Deși subiectul este Polonia, mutatis mutandis, textul poate fi la fel de bine și despre România.
-
Fostul director al CDC: "Este timpul să recunoaștem efectele secundare semnificative ale vaccinurilor Covid-19"
Dr. Robert Redfield, fost director al Centrelor pentru Controlul și Prevenirea Bolilor (CDC) din SUA, a declarat săptămâna trecută că mulți oficiali care au încercat să avertizeze publicul cu privire la potențialele probleme legate de vaccinurile Covid-19 au fost presați să tacă și că este timpul să se recunoască faptul că au existat efecte secundare „semnificative" care i-au îmbolnăvit pe oameni.
DIN CATEGORIE
- TOP CITITE
- TOP COMENTATE
- 1.Prefectul Cosa Nostra: mafia din Techirghiol a vândut sub patronajul primarului Iulian Soceanu pana și terenul de sub statia de autobuz!
- 2.Israelul isi face planurile pentru Gaza depopulata de palestinieni - O megaregiune futuristă între Eurasia și Africa pe placul Forumului de la Davos
- 3.Șocul inevitabil ce lovește lumea: Celebrul Nouriel Roubini avertizează că vine Mama tuturor crizelor!
- 4.Ce a discutat preotul Mega cu Putin. Regizorul s-a mai întâlnit cu fostul președinte Medvedev și cu filantropul Konstantin Malofeev
- 5.Primăria interlopă a Capitalei: Nicușor Dan îi bagă-n conturi un milion de euro lui Manu Bombardieru ginerele lui Sile Cămătaru
- 6.Dosarul secret al lui Iohannis si ultimul obstacol privind recuperarea casei din Sibiu și a banilor din chirie
- 7.Tucker Carlson interviu cu Kris Newby: Boala Lyme provine din laboratoarele biologice americane VIDEO
- 8.Omul numărul doi al Rusiei crede că Siberia va fi unul dintre cele mai sigure locuri de pe Pământ și de aceea „elitele anglo-saxone" vor să cucerească regiunea
- 9.Donald Trump e "deținut de nenorociții de ruși". Mike Pompeo și personalul său i-au ascuns informații când era președinte SUA
- 10.Putin și Xi au finalizat schița proiectului Noii Ordini Mondiale (NOM). Finalul sistemului Bretton Woods.
comentarii
Adauga un comentariuAdauga comentariu