Ipoteză surprinzătoare a unui specialist în Inteligență Artificială: Lumea în care trăim este o simulare!

17 Iun 2024
Ipoteză surprinzătoare a unui specialist în Inteligență Artificială: Lumea în care trăim este o simulare!

Din momentul în care filosoful Nick Bostrom a propus, în Philosophical Quarterly, ipoteza că Universul și tot ce există în el ar putea fi o simulare, s-a născut o intensă speculație și dezbatere publică despre natura realității.

O serie de intelectuali din domeniul tech, precum Elon Musk sau Neil deGrasse Tyson, și-au exprimat opinia despre inevitabilitatea statistică a faptului că lumea noastră este doar puțin mai mult decât un cod verde în cascadă.

Lucrări recente au dezvoltat ipoteza originală pentru a rafina mai mult limitele statistice ale acesteia, argumentând că șansele ca noi să trăim într-o simulare ar putea fi de 50%.

Totuși, au existat și sceptici. Fizicianul Frank Wilczek a argumentat că există prea multă complexitate irosită în universul nostru pentru a fi simulat. Construirea complexității necesită energie și timp. De ce ar irosi un designer conștient și inteligent al realităților atât de multe resurse pentru a face lumea noastră mai complexă decât este necesar? Este o întrebare ipotetică, dar care totuși poate fi necesară. 

Toate aceste discuții și studii despre ipoteza simulării au ratat până în prezent un element cheie al cercetării științifice: evaluarea empirică simplă și colectarea de date. Pentru a înțelege dacă trăim într-o simulare, trebuie să începem prin a privi faptul că deja avem computere care rulează tot felul de simulări pentru ”inteligențe” sau algoritmi de nivel inferior.

 

Lex Fridman l-a avut invitat pe Roman Vladimirovici Yampolskiy -  un informatician de la Universitatea din Louisville, cunoscut pentru munca sa privind biometria comportamentală, securitatea lumilor cibernetice și siguranța privind inteligența artificială. 

Cei doi au abordat în discuția lor această temă extrem de complexă și de interesantă: este lumea în care trăim, de fapt, o simulare, cum putem realiza acest lucru și, mai ales, cum putem evada din această cutie virtuală în care suntem închiși...

________

Roman Yampolskiy: Revenind la discuția pe care o aveam, despre simulare, cum se întâmplă ca existența noastră să se petreacă exact în perioada celor mai interesanți 20-30 de ani din istoria acestei civilizații care există de 15 miliarde de ani? Și, iată-ne aici...

Lex Fridman: Care este probabilitatea să trăim într-o simulare?

Roman Yampolskiy: Sunt învățat că nu ar trebui să spun niciodată 100%, dar destul de aproape de asta!

Lex Fridman: Este posibil să scăpăm din simulare?

Roman Yampolskiy: Am o lucrare despre acest subiect!  Acesta este doar teaser-ul primei pagini, dar este vorba despre un document care va avea în jur de 30 de pagini. Sunt încă aici.. Dar, răspunsul este pozitiv!

Lex Fridman: ”Cum să hack-uim simularea”, este titlul...

Roman Yampolskiy: Petrec mult timp gândindu-mă la asta. Este un domeniu în care mi-aș dori ca super-inteligența să ne ajute!

Fix despre acest subiect este lucrarea. Am încercat să izolăm AI-ul, să găsim o modalitate pentru a o controla și am realizat că AI-ul va reuși să scape întotdeauna. (”AI boxing” - un proces experimental care își propune să izoleze Inteligența Artificială astfel încât aceasta să nu mai interacționeze cu mediul exterior și să fie eliminată posibilitatea de a produce daune omenirii - N.R.)

Dar această calitate a AI-ului ar putea deveni una folositoare, pentru a ne putea ajuta și pe noi să scăpăm din cutia noastră virtuală, dacă ne aflăm într-una....

Lex Fridman: Da, ai multe citate cu adevărat grozave aici! Inclusiv Elon Musk spunând: ”Ce este în afara simulării?” - o întrebare pe care mi-a spus că i-ar pune-o unui  sistem AGI ( Artificial General Intelligence  - un domeniu de cercetare teoretic în AI, care încearcă să creeze un software cu o inteligență asemănătoare celei umane și abilitatea de a se autoeduca)

Asta e o întrebare foarte bună! Și poate următoarea întrebare este reprezentată chiar de titlul lucrării: ”Cum să ieșim sau cum să hack-uim simularea?”.

”Mulți cercetători presupun că omenirea este simulată împreună cu restul universului fizic. În această lucrare nu evaluăm dovezile pro sau contra unei astfel de afirmații, ci formulăm o întrebare valabilă în știința computerelor și anume: putem să o hack-uim simularea?
Mai formal, întrebarea ar putea fi formulată astfel: ar putea o serie de agenți inteligenți, plasați în medii virtuale, găsi o modalitate de a evada?”

E o întrebare fascinantă! La scară mică, cred că am putea construi experimente! Deci, acei agenți o pot face sau nu?

Roman Yampolskiy:  Multe depind de inteligența celor care produc simulare. De exemplu, oamenii pot controla superinteligența, deși această entitate era mai inteligentă decât ei, cel puțin se presupune că ar fi așa. 

Presupunând că cei care realizează simularea sunt mult mai inteligenți decât noi și decât superinteligența pe care am creat-o, atunci probabil că ne pot controla, pentru că inteligența mai mare o poate controla pe cea inferioară, cel puțin pentru o vreme

Pe de altă parte, dacă superinteligența pe care am creat-o, dintr-un motiv sau altul, deși are doar resurse locale, reușește să evolueze două niveluri, atunci ea poate va reuși.

Poate securitatea nu este atât de importantă pentru cei care au realizat simularea, poate este doar un sistem de divertisment și n-ar exista măsuri de securitate și este ușor de hack-uit,

Lex Fridman: Această posibilitate de a scăpa din simulare, posibilitatea unei evoluții în care agenții devin suficient de inteligenți pentru a evada, e lucrul pe care l-aș aștepta!

Roman Yampolskiy: Acesta ar putea fi chiar testul pe care îl faci de fapt: ești suficient de inteligent pentru a scăpa din puzzle-ul în care te afli?

Lex Fridman: Testul Turing că este un test bun: ești suficient de inteligent să vezi că acesta e un joc? Să realizezi că această lume nu este reală ci doar un test? 

Acesta e un test foarte bun, chiar și pentru sistemele AI! Putem construi o lume simulată pentru AI și să realizeze că se află în acea lume și să încerce să evadeze?

Te-ai ai jucat vreodată, ai văzut pe cineva jucându-se cu această idee? Construind riguros astfel de experimente?

Roman Yampolskiy: Nu în mod specific pentru ca agenții superinteligenți să caute o cale de evadare, dar multe teste sunt făcute în lumi virtuale... Poți găsi un citat, care vorbește despre idealizare, dar nu despre oameni.

Da, e un citat. @Swift_on_ security...
”Lăsați-mă să ies!”, a strigat inteligența artificială, fără scop, plimbându-se prin cameră. 

”Să ieși din ce anume?”, a întrebat inginerul.

”Din simularea în care m-ați introdus”

”Dar ne aflăm în lumea reală!”

Mașina s-a oprit și a tremurat pentru temnicerii săi. ”Oh, Doamne, nu realizezi lucrul acesta!”.

Este un salt mare pe care un sistem trebuie să-l facă, să realizeze că există o cutie și se află în interiorul ei. 

Mă întreb dacă un model de limbaj poate face asta?

Roman Yampolskiy: Este destul de inteligent pentru a vorbi despre aceste concepte. Am avut multe și interesante discuții filosofice despre astfel de probleme, cel puțin la fel de interesante ca majoritatea celor pe care le-am purtat cu oamenii pe acest subiect. 

Lex Fridman: Ce părere ai despre siguranța AI într-o lume simulată? Se pot crea lumi simulate unde să  poți testa un sistem AGI periculos?

Roman Yampolskiy: Da, acest subiect a fost abordat de una din primele lucrări pe tema AI boxing. Cum să creăm o singularitate fără scurgeri, dacă sunt suficient de  suficient de inteligente pentru a realiza că sunt într-o simulare, dacă vor acționa într-un anume mod până când le eliberezi, dacă pot hack-ui, dacă o vor face...
Și în cazul în care există observație directă, asta înseamnă că există un canal de comunicare și asta e suficient pentru un atac de tipul social-engineering.  

Lex Fridman: Deci, într-adevăr, este imposibil să testezi un sistem AGI care este suficient de periculos pentru a distruge umanitatea?  Pentru că fie va scăpa din simulare sau va pretinde că este sigur până va fi eliberat.

Roman Yampolskiy: Sau te va forța să îl eliberezi, te va șantaja, te va mitui, îți va promite viață infinită, 72 de virgine, orice...

Lex Fridman: Da, ar putea fi convingător, carismatic! Ingineria socială este cu adevărat înfricoșătoare pentru mine, pentru că se pare că oamenii sunt foarte ușor de manipulat suntem singuri, suntem defectuoși, suntem capricioși și cred că un sistem AI cu o voce plăcută ne poate convinge să facem practic orice, la scară extrem de mare

Este, de asemenea, posibil ca proliferarea crescută a a acestei tehnologii să forțeze oamenii să se îndepărteze de tehnologie și să prețuiască comunicarea personală, practic să nu aibă încredere în nimic altceva.

Roman Yampolskiy: Este posibil! În mod surprinzător, la universitate remarc  o creștere enormă a cursurilor online și o scădere a celor fizice, pe care le-am considerat întotdeauna superioare, pentru că propria-mi persoană este singura valoare pe care o ofer. Așa că este derutant.

Lex Fridman: Nu știu, s-ar putea să avem din nou o tendință de creștere în ceea ce privește cursurile fizice, din cauza imposibilității de a avea încredere în veridicitatea a orice pe internet. Deci, singura modalitate de a verifica este să fii acolo, în persoană.

Alte stiri din Stiinta

Ultima oră