Un fost director la Google X, Mo Gawdat ne avertizează că pericolele inteligenței artificiale „se întâmplă chiar în timp ce vorbim” într-un interviu cu celebrul Piers Morgan. Mo Gawdat ne prezintă pe scurt și în cunoștință de cauză care sunt pericolele legate de spinoasa problemă a inteligenței artificiale. De asemenea, este prezentată în această temă și poziția lui Stephen Hawking, unul dintre cei mai reputați oameni de știință din zilele noastre.
Vizionare plăcută! (după clip aveți podcastul și transcriptul)
Powered by RedCircle
PIERS MORGAN: Premierul britanic Rishi Sunak a fost în SUA împreună cu leaderi britanici de top în inteligența artificială la doar câteva zile după ce unul din consilierii săi a avertizat că IA ar putea începe să ucidă oameni în doi ani, potrivit unei scrisori deschise semnată de Elon Musk și sute de nume mari din domeniul tehnologiei, care solicită o pauză urgentă în dezvoltarea IA. Mo Gawdat, fost director de afaceri la Google X, a fost printre primii care au tras alarma și spune că situația este mai mult decât urgentă. Mo, autorul cărții „Înfricoșător de inteligente”, mi se alătură. Mă bucur să vă văd.
MO GAWDAT: Mulțumesc foarte mult.
PIERS MORGAN: Ați fost parte a grupului secret Google X. Presupun că sarcina dvs. era să vă gândiți la lucruri de neimaginat, cum ar fi IA și foarte repede ați ieșit din capcană pentru a-i avertiza pe oamenii: „E ceva serios!”
MO GAWDAT: Foarte…
PIERS MORGAN: Ce ați văzut de v-ați gândit că trebuie să fim foarte atenți?
MO GAWDAT: Am avut un mic experiment care avea ca scop învățarea brațelor robotice să prindă obiecte, unde un dezvoltator ciudat punea jucării pentru copii în fața brațelor [robotice] și, în principiu, au continuat să încerce săptămâni întregi fără nici un succes. Și am trecut pe lângă ei și m-am gândit că am irosit atâția bani pe ceva care nu avea să funcționeze. Într-o vineri seara, unul dintre ei a apucat o bilă galbenă, a arătat-o la cameră și mi-am zis „Iată! Milioane de dolari pentru o minge galbenă.” Luni dimineață, fiecare dintre [roboți] prindea o minge galbenă, iar peste câteva săptămâni, fiecare prindea orice. Viteza cu care aceste mașini învățau e uimitoare, dar, în același timp, înțelegerea pe care o avem despre motivul pentru care învață, de ce fac ceea ce fac, este foarte foarte limitată.
PIERS MORGAN: Este auto-proiectare ceea ce fac [roboții dotați cu IA]?
MO GAWDAT: Practic, ei imită inteligența umană.
PIERS MORGAN: Motivul întrebării e că l-am intervievat pe Prof. Stephen Hawking, chiar înainte de a muri, ultimul său interviu televizat, și l-am întrebat: „Care e cea mai mare amenințare pentru umanitate?” și a spus…
MO GAWDAT: IA…
PIERS MORGAN: Permiteți-mi să vă arăt clipul, trebuie să-l auzim…
STEPHEN HAWKING: Încă de la începutul revoluției industriale au existat temeri legate de șomaj în masă, pe măsură ce mașinile înlocuiau oamenii. Totuși, creșterea cererii de bunuri și servicii a crescut o dată cu creșterea capabilităților [tehnologice]. Dacă asta poate continua la nesfârșit este o întrebare deschisă, dar există un pericol mai mare din partea IA dacă îi permitem să ia propriile decizii (să se auto-proiecteze), deoarece atunci se poate îmbunătăți rapid, și noi s-ar putea să pierdem controlul.
PIERS MORGAN: Pare foarte prevăzător. Asta a fost cu câțiva ani în urmă… Cred că la asta vă referiți acum.
MO GAWDAT: Am lăsat un avertisment (2018) în primul videoclip pe care l-am publicat după ce am plecat, și a fost despre asta. Ideea e că noi întotdeauna am avut trei limite pentru [mașinile] IA: nu le puneți pe internetul public până când rezolvați problema controlului; nu le învățați să codeze pentru că asta le face să se auto-dezvolte; și să nu aveți altă IA care să le îndrume, alți agenți care să lucreze cu ele. Și s-a trecut peste toate cele trei linii.
PIERS MORGAN: Acum îmi amintesc de șah. Sunt mare fan al șahului, nu joc grozav dar îmi place să joc. Și îmi amintesc când (supercomputerul) Deep Blue…
MO GAWDAT: A câștigat împotriva lui Gary Kasparov.
PIERS MORGAN: Da. Și a început cu Marele Maestru și i-a bătut pe primii și apoi, dintr-o dată, Deep Blue a câștigat și apoi a devenit complet invincibil…
MO GAWDAT: Și nu a mai câștigat de atunci vreun om.
PIERS MORGAN: Niciun om nu-l poate învinge, nici cei mai mari jucători, cum ar fi Kasparov. Asta mi-a arătat cât de repede roboții, tehnologia, computerele pot să depășească creierul uman.
MO GAWDAT: Să rămânem la jocuri. AlphaGo a fost proiectat de DeepMind, de fapt chiar aici, în Marea Britanie – uimitoare echipă – pentru a câștiga în jocul de strategie Go. Le-a luat luni și luni de zile și câteva versiuni pentru a câștiga și a deveni campioni mondiali. Apoi maestrul AlphaGo a învățat jocul fără să urmărească vreodată un om jucând. Maestrul AlphaGo a învățat jucând cu sine însuși. În trei zile a câștigat împotriva primei versiuni. În 21 de zile, a câștigat cu 1000 la 0 împotriva campionului mondial, care era deja o IA… Înțelegeți? Viteza cu care învață…
PIERS MORGAN: Să trecem prin timpi… pentru că oamenii au solicitat experți, iar în această scrisoare cer o pauză de 6 luni, dar dacă nu se face nicio pauză și continuăm în ritmul în care mergem în acest moment, ce s-ar putea întâmpla?
MO GAWDAT: Realitatea, după părerea mea, este că e foarte greu de prezis. Ceva s-ar putea întâmpla mâine sau peste patru ani sau în cinci ani. Nu aș spune că mai târziu de 2029. Majoritatea predicțiilor noastre…
PIERS MORGAN: Când spuneți „ceva”, la ce vă referiți? Care e cel mai rău scenariu?
MO GAWDAT: Începutul celui mai rău scenariu e că sunt mai deștepte decât noi, așa că nu pot fi controlate. Corect?
PIERS MORGAN: Ce poate face IA o dată ce devine mai inteligentă decât oamenii? Când ne vedeți pe noi, oamenii, ca devenind inutili?
MO GAWDAT: Există două stadii de amenințare. Da? Și cred că cea mai mare provocare pe care o avem în lumea de azi este că suntem concentrați pe amenințarea existențială pe care am văzut-o în filmele SF. Amenințarea mai apropiată este mult mai gravă. Este un moment Oppenheimer. Cel care controlează IA are o putere enormă asupra tuturor celorlalți. Asta înseamnă că toți cei care nu controlează IA astăzi sunt într-o cursă a înarmării, încercând să preia controlul. De aceea, când mă gândesc la mișcarea primului ministru, e o mișcare grozavă, poate chiar puțin cu întârziere, dar e atât de greu de realizat, pentru că trebuie să unifici China, Rusia și USA pentru a face o reglementare pentru IA.
PIERS MORGAN: Adică o persoană cu bune intenții, care încearcă să reglementeze și să controleze IA, îi va da moralitate…
MO GAWDAT: Acesta e scopul…
PIERS MORGAN: Dar un revizor incorect al IA, ar putea să o învețe să fie imorală, opusul…
MO GAWDAT: Ceea ce se întâmplă chiar acum. Nu am nici un dubiu. Dacă le spuneți sefilor drogurilor din lume și criminalilor din lume că IA este o unealtă foarte puternică, ei vor găsi o modalitate de a vă sparge banca.
PIERS MORGAN: Înfricoșător…
MO GAWDAT: E foarte îngrijorător și cred că realitatea e, în mod interesant, că singurul mod de apărare împotriva unei super-inteligențe e printr-o altă super-inteligență. Asta e ceea ce crează dinamica prizonierilor, ceea ce numesc eu inevitabil „înfricoșător de inteligent”. Noi trebuie să continuăm dezvoltarea pentru că dacă ajunge pe mâini greșite, noi vrem ca mâinile potrivite să aibă puterea de a ne apăra. Corect? În același timp, complexitatea situației este în întregime dincolo de moralitate și etică. Și e interesant, cea mai recentă dezvoltare a lor, ChatGPT, de exemplu, folosește învățarea prin întărire, care este o tehnică foarte interesantă, deoarece, practic, permite unui om să intre în dialog cu ChatGPT și să spună: „Acela a fost un răspuns greșit, poți să te întorci și să te gândești…”
PIERS MORGAN: E o provocare, aproape cum înveți un copil la școală.
MO GAWDAT: 100%. Și învățarea prin întărire, în mod simplificat, înseamnă că în esență îi spunem mașinii să își revizuiască algoritmul, astfel încât răspunsul să fie o pisică, nu o pasăre. De asemenea, îi putem spune „Răspunsul acela este imoral. Îți poți revizui algoritmul, astfel încât să devii mai…”
PIERS MORGAN: Problema pe care o văd este că dacă ești bine intenționat în acest proces este un lucru, dacă o înveți deliberat să fie imorală, foarte repede ai putea ajunge să pierzi controlul IA, ceea ce are urmări foarte neplăcute, predate de oameni.
MO GAWDAT: Declarația mea foarte clară este că eu, sincer, nu sunt preocupat de mașini [IA], chiar dacă amenințările existențiale sunt posibile.
PIERS MORGAN: Sunteți îngrijorat de ceea ce le învață oamenii?
MO GAWDAT: Sunt îngrijorat de oamenii care au IA în mâinile lor.
PIERS MORGAN: Sunt total de acord. Dar, hai să încheiem într-o notă mai veselă. Deși ați început cu o notă foarte nefericită, cu acest lucru îngrozitor în viața dvs., în care fiul dvs., în urma unei operații de rutină a murit, după o serie de erori făcute de echipa medicală… Ați fi putut să clacați ca mulți alții care s-au confruntat cu așa ceva… dar ați transformat-o în ceva imens și extraordinar de pozitiv. Spuneți-mi ce ați făcut…
MO GAWDAT: Sincer, nu știu. Am simțit într-un mod foarte interesant că fiul meu nu trebuie să fi părăsit această lume fără nici un motiv. Nu îl puteam aduce înapoi. Au fost 4 ore între momentul în care m-a îmbrățișat și a intrat în sala de operație și momentul în care a părăsit lumea noastră. Patru ore cu totul… Trebuie să ajungi la un punct în care spui: Ce să fac cu asta? Să mă destram și apoi pe patul meu de moarte el tot nu este aici, sau să încerc să fac ceva care să amintească lumii de esența lui? Și, mă credeți sau nu, tot ceea ce am făcut de atunci, din 2014, a fost influențat de ceea ce acel tânăr m-a învățat, într-un mod foarte interesant – a influențat asta, munca mea asupra IA, munca mea în privința fericirii și a stresului….
PIERS MORGAN: Vorbiți-mi despre munca asupra fericirii, în mod special.
MO GAWDAT: Am găsit o ecuație a fericirii, știi că ingineri sunt oameni ciudați, așa că atunci când eram foarte nefericit în tinerețe, nu-mi puteam găsi fericirea prin învățăturile înțelepților și guru și așa mai departe, așa că a trebuit să îmi găsesc un mod practic și matematic de a privi lucrurile. Am discutat cu fiul meu, care m-a învățat partea grea și apoi am scris prima mea carte „Sare pentru fericire”, care se baza pe acest lucru, pe ideea că fericirea este foarte logică, și anume dacă îmi pot controla creierul pentru a avea o conversație interesantă cu tine, eu pot, de asemenea, să-mi controlez creierul pentru a deveni un pic mai fericit. Poate nu pentru a deveni absolut fericit, dar să devin un pic mai fericit. Și ideea a fost foarte bine primită, un bestseller internațional peste tot și, în principiu, pentru că lumea modernă, așa cum o cunoaștem, este [în creier] nu mai este [în inimă]. Așa că prima mea misiune a fost – 10 milioane de fericiți, ceea ce a fost o încercare de a face lumea să-și amintească de Ali, dacă vreți, iar a doua misiune – un miliard de oameni fericiți a fost 100% din cauza IA.
PIERS MORGAN: Uimitor…
MO GAWDAT: Da.
PIERS MORGAN: Și în cele din urmă, ne întoarcem din nou la creierul uman.
MO GAWDAT: 100%
PIERS MORGAN: Cheia aici, fie că e vorba de IA, fie că e vorba de capacitatea de a simți fericire, de fapt, în cele din urmă e vorba de creierul uman.
MO GAWDAT: Este vorba despre a fi om.
PIERS MORGAN: Da.
MO GAWDAT: Creier și inimă, intuiție și analiză. Este vorba despre a fi om.
PIERS MORGAN: A fost fantastic să vorbesc cu dumneavoastră. Mulțumesc că ..ați venit! „Înfricoșător de inteligente: Viitorul IA și cum poți salva lumea noastră”. Nu ar putea fi o carte mai importantă într-un moment mai important. Vă mulțumesc foarte mult că ați fost alături de noi.
Pomelnice online și donații
Doamne ajută!
Dacă aveți un card și doriți să trimiteți pomelnice online și donații folosind cardul dumneavoastră, sau/și să susțineți activitatea noastră filantropică, inclusiv acest site, vă rugăm să introduceți datele necesare mai jos pentru a face o mică donație. Forma este sigură – procesatorul de carduri este Stripe – leader mondial în acest domeniu. Nu colectăm datele dvs. personale.
Dacă nu aveți card sau nu doriți să-l folosiți, accesați Pagina de donații și Pomelnice online .
Ne rugăm pentru cei dragi ai dumneavoastră! (vă rugăm nu introduceți detalii neesențiale precum dorințe, grade de rudenie, introduceri etc. Treceți DOAR numele!)
Mai ales pentru pomelnicele recurente, vă rugăm să păstrați pomelnicele sub 20 de nume. Dacă puneți un membru al familiei, noi adăugăm „și familiile lor”.
Dumnezeu să vă răsplătească dragostea!