Și-a dat demisia de la Google unul din pionierii Inteligenței Artificiale numit și „părintele Inteligenței Artificiale” din cauza îngrijorării sale legate de direcția în care se dezvoltă această ramură și pericolele aferente. Ascultați-l pe Geoffrey Hinton exprimându-și îngrijorările.
Vizionare plăcută! (după clip aveți podcastul și transcriptul)
Powered by RedCircle
„Părintele inteligenței artificiale” discută despre pericolele pe care tehnologiile în curs de dezvoltare le reprezintă pentru societate
GEOFF BENNETT: A fost o săptămână în care preocupările legate de extinderea rapidă a utilizării IA a răsunat puternic la Washington și în întreaga lume.
Vicepreședintele [SUA], Kamala Harris, s-a întâlnit ieri cu cei mai importanți directori de la companiile care conduc dezvoltarea IA: Microsoft, Google, OpenAI și Anthropic. Vicepreședintele a discutat despre unele dintre riscurile tot mai mari și le-a spus companiilor că au „o obligație morală” de a dezvolta IA în condiții de siguranță. Această întâlnire a avut loc la doar câteva zile după ce una dintre cele mai importante voci din domeniul IA, Dr. Geoffrey Hinton, a anunțat că demisionează de la Google din cauza îngrijorărilor privind viitorul IA și la ceea ce ar putea duce în cele din urmă, necontrolată. Vom asculta acum câteva dintre aceste îngrijorări de la Dr. Geoffrey Hinton, care mi se alătură de la Londra. Vă mulțumim că sunteți alături de noi. Ce aveți libertatea să exprimați acum în legătură cu inteligența artificială și nu puteați exprima liber când erați angajat la Google?
GEOFFREY HINTON [pionier al IA]: Nu era că nu mă puteam exprima liber când eram angajat la Google, ci faptul că, în mod inevitabil, dacă lucrezi pentru o companie, ai tendința de a te autocenzura. Ai tendința de a te gândi la impactul pe care îl va avea asupra companiei. Vreau să pot vorbi despre ceea ce eu percep acum ca fiind riscurile unei IA super-inteligente, fără să mă gândesc la impactul asupra Google.
GEOFF BENNETT: Care sunt aceste riscuri, din perspectiva dumneavoastră?
GEOFFREY HINTON: Există câteva riscuri diferite. Există riscul de a produce o mulțime de știri false, astfel încât nimeni să nu mai știe ce este adevărat. Există riscul de a încuraja polarizarea, determinând oamenii să dea click pe lucruri care îi revoltă. Există riscul de a lăsa oamenii fără locuri de muncă, ceea ce se întâmplă când facem lucrurile mai productive. Când creștem foarte mult productivitatea, îi ajutăm pe toți, dar există îngrijorarea că s-ar putea să îi ajute doar pe bogați. Mai există riscul despre care vreau să vorbesc. Mulți alți oameni vorbesc despre aceste alte riscuri, inclusiv riscurile de părtinire și discriminare etc. Eu vreau să vorbesc despre un risc diferit, care este riscul ca o IA super inteligentă să preia controlul de la oameni.
GEOFF BENNETT: Ei bine, cum se compară cele două, inteligența umană sau biologică și inteligența mașinilor?
GEOFFREY HINTON: Aceasta este o întrebare foarte bună. Și am un răspuns destul de lung. Inteligența biologică a evoluat pentru a folosi foarte puțină energie, așa că noi folosim doar 30 wați. Și avem un număr uriaș de conexiuni, cam 100 de trilioane de conexiuni între neuroni. Iar învățarea constă în schimbarea puterii acestor conexiuni. Inteligența digitală pe care am creat-o folosește foarte multă energie, cam un megawatt, atunci când o antrenezi. Are mult mai puține conexiuni, doar un trilion, dar poate învăța mult mai mult decât știe o singură persoană, ceea ce sugerează că este un algoritm de învățare mai bun decât cel al creierului.
GEOFF BENNETT: Ce ar putea face sistemele de IA mai inteligente decât oamenii? Care este îngrijorarea pe care o aveți?
GEOFFREY HINTON: Întrebarea este: Ce le va motiva? Pentru că ne-ar putea manipula cu ușurință dacă ar vrea. Imaginați-vă un copil de 2 ani. L-ați putea întreba: „Vrei mazăre sau conopidă?” Copilul de 2 ani nu-și dă seama că nu trebuie să accepte niciuna dintre ele. Știm, de exemplu, că poți invada o clădire din Washington fără să mergi acolo, doar prin manipularea oamenilor. Dar, imaginați-vă ceva care este mult mai priceput la manipularea oamenilor decât oricare dintre politicienii noștri actuali.
GEOFF BENNETT: Presupun că întrebarea e, atunci: „De ce ar vrea IA să facă asta?” Nu ar fi nevoie de o anumită formă de simțire?
GEOFFREY HINTON: Să nu devenim confuzi cu problema simțirii. Am o mulțime de spus despre simțire, dar nu vreau să confund problema cu asta. Permiteți-mi să vă dau un exemplu de ce aș putea dori să fac acest lucru. Să presupunem că puneți IA să facă ceva și îi dați un scop. Și, de asemenea, îi dai posibilitatea de a crea subobiective. Deci, de exemplu, dacă vrei să ajungi la aeroport, creezi un subobiectiv de a lua un taxi sau ceva care să te ducă la aeroport. Un lucru pe care îl vei observa destul de repede este că există un subobiectiv, pe care dacă îl poți atinge, îți va fi mai ușor să atingi toate celelalte obiective pe care le ai de la oameni. Iar subobiectivul care ușurează acest lucru e obținerea unui control mai mare, mai multă putere. Cu cât ai mai multă putere, cu atât este mai ușor să faci lucrurile. Așadar, există îngrijorarea alinierii. Îi dăm un obiectiv perfect rezonabil, iar IA decide, pentru a-l atinge, că trebuie să obțină mai multă putere. Și pentru că IA este mult mai deșteaptă decât noi și pentru că este antrenată din tot ceea ce oamenii au făcut vreodată. A citit toate romanele care au existat vreodată, a citit Machiavelli… Știe foarte multe despre cum să manipuleze oamenii… Există îngrijorarea că ar putea să înceapă să ne manipuleze prin a ne da mai multă putere, iar noi să nu avem nicio idee despre ce se întâmplă.
GEOFF BENNETT: Când ați fost în fruntea acestei tehnologii, acum câteva decenii, ce credeați că ar putea face? Care erau aplicațiile pe care le aveați în minte la acea vreme?
GEOFFREY HINTON: Există un număr foarte mare de aplicații foarte bune, și de aceea ar fi o mare greșeală să ne oprim din dezvoltarea acestor lucruri. [IA] va fi extrem de utilă în medicină. De exemplu, ați prefera să mergeți la un medic de familie care a văzut câteva mii de pacienți sau la unul care a văzut câteva sute de milioane, inclusiv mulți dintre ei cu aceeași boală rară pe care o aveți? În acest fel puteți avea [acces la] medici mult mai buni. Eric Topol a vorbit recent despre acest lucru. Se poate crea o nanotehnologie mai bună pentru panourile solare, se pot prezice inundații, cutremure… Se poate face un bine imens cu asta.
GEOFF BENNETT: Tehnologia este problema sau oamenii din spatele ei?
GEOFFREY HINTON: Este vorba de o combinație. Evident, multe dintre organizațiile care dezvoltă această tehnologie sunt departamentele de apărare, iar acestea nu vor neapărat să construiască, să fie drăguți cu oamenii, ca primă regulă. Unele departamente de apărare ar dori să ucidă oameni de un anumit tip. Așa că nu ne putem aștepta ca toți să aibă intenții bune față de toți oamenii.
GEOFF BENNETT: Apare întrebarea: Ce e de făcut în această privință? Această tehnologie avansează mult mai repede decât pot guvernele și societățile să țină pasul. Capacitățile acestei tehnologii fac salturi înainte la fiecare câteva luni. Pentru a scrie legislația, a o aproba, a veni cu tratate internaționale… asta durează ani de zile.
GEOFFREY HINTON: Da. Am ieșit în public pentru a încerca să încurajez mult mai multe resurse și oameni de știință creativi să intre în domeniu. Cred că e un domeniu în care putem avea, de fapt, o colaborare internațională, pentru că preluarea controlului de către mașini este o amenințare pentru toți. E o amenințare pentru chinezi, americani și europeni, la fel cum a fost un război nuclear global. Iar în cazul unui război nuclear global, oamenii întradevăr au colaborat pentru a-i reduce șansele.
GEOFF BENNETT: Există și alți experți în domeniul IA care spun că îngrijorările pe care le ridicați (adică acest viitor înfricoșător), ne distrag atenția de la riscurile reale și imediate pe care le ridică IA, dintre care pe unele le-ați menționat: dezinformarea, frauda, discriminarea. Cum răspundeți la aceste critici?
GEOFFREY HINTON: Nu vreau să distrag atenția de la acestea. Cred că sunt preocupări foarte importante și ar trebui să lucrăm și la acestea. Vreau doar să adaug această amenințare existențială de preluare a controlului. Și unul dintre motivele pentru care vreau să fac acest lucru este pentru că acesta e un domeniu în care cred că putem obține o colaborare internațională.
GEOFF BENNETT: Mai există vreo cale de întoarcere? Când spuneți că va veni un moment în care IA va fi mai inteligentă decât noi. Mai există vreo cale de întoarcere de acolo?
GEOFFREY HINTON: Nu știu. Intrăm într-o perioadă de mare incertitudine, în care ne confruntăm cu tipuri de lucruri cu care nu ne-am mai confruntat până acum. E ca și cum ar fi aterizat extratereștrii, dar noi nu am băgat de seamă, pentru că vorbesc bine engleza.
GEOFF BENNETT: Cum ar trebui, atunci, să gândim diferit despre IA?
GEOFFREY HINTON: Ar trebui să ne dăm seama că, probabil, vom obține lucruri mult mai inteligente decât noi destul de curând. Și vor fi minunate. Vor fi capabile să facă foarte ușor tot felul de lucruri pe care noi le considerăm foarte dificile. Așadar, există un potențial pozitiv uriaș în aceste lucruri. Dar, bineînțeles, există și posibilități negative uriașe. Și cred că ar trebui să punem mai multe resurse etice în dezvoltarea inteligenței artificiale pentru a o face mult mai puternică și pentru a afla cum să o ținem sub control și cum să minimizăm efectele secundare negative ale acesteia.
GEOFF BENNETT: Dr. Geoffrey Hinton, vă mulțumim foarte mult pentru timpul acordat și pentru că ne-ați împărtășit opiniile dumneavoastră.
GEOFFREY HINTON: Vă mulțumesc pentru invitație.
Pomelnice online și donații
Doamne ajută!
Dacă aveți un card și doriți să trimiteți pomelnice online și donații folosind cardul dumneavoastră, sau/și să susțineți activitatea noastră filantropică, inclusiv acest site, vă rugăm să introduceți datele necesare mai jos pentru a face o mică donație. Forma este sigură – procesatorul de carduri este Stripe – leader mondial în acest domeniu. Nu colectăm datele dvs. personale.
Dacă nu aveți card sau nu doriți să-l folosiți, accesați Pagina de donații și Pomelnice online .
Ne rugăm pentru cei dragi ai dumneavoastră! (vă rugăm nu introduceți detalii neesențiale precum dorințe, grade de rudenie, introduceri etc. Treceți DOAR numele!)
Mai ales pentru pomelnicele recurente, vă rugăm să păstrați pomelnicele sub 20 de nume. Dacă puneți un membru al familiei, noi adăugăm „și familiile lor”.
Dumnezeu să vă răsplătească dragostea!
21 Comment
Somnul rațiunii naștere monștrii
1/ de fiecare dată când aud de IA mă duce mintea la „prostia omenească ” de Ion Creangă.
2/ nu cred că nenea asta deștept și-a dat demisia, cred că a ieșit la pensie.
3/ am citit un articol de Evgheny Morozov AI: the key battleground for Cold War 2.0?
Așa pe scurt Evgheny zice că silicon din vale (marile companii tehnologice) nu mai face banii care îi făcea (preț la energie și persective de sărăcie la useri), și au inventat pericolul IA că să ceară bani de la stat pe de o parte, și ca să împiedice concurenții pe de altă parte. (Bine articolul are 6000 de cuvinte, rezumatul meu e super superficial)
Mi se pare că e un pic și sceneta discursului cu nenea asta deștept de la google: IA pericol mare, IA mare valoare, să reglementăm și peste hotare.
Și Kamala care promite să arunce cu banii că să moară de necaz dujmanii.
Acu’ să nu vă supărați că scriu prostii pe net. Încerc să fac glume să mai destind atmosfera 🙂
2 – Și-a dat demisia.
Da.
E tare dacă a ținut funcția asta de mare
director până la 75 ani.
(Deși e spectacol mediatic) e totuși trist să te uiți înapoi și să regreți ce ai făcut o viață întreagă.
Doamne ferește
Nu este spectacol mediatic. Problemele sunt foarte reale. Cunosc oameni depresivi și care s-au sinucis din cauza IA
Absolut de acord, problemele sunt foarte reale, nu datează de ieri (de când a ieșit gpt3). ….
Vă mulțumesc pentru podcasturile care le faceți pe această temă (unele sfaturi funcționează și la mine :))
Însă mă îndoiesc de sinceritatea și intențiile lui google, meta, MS și președenția USA în a proteja omenirea de ceea ce ei au făcut. (OS de te lingi pe degete, death scrool, algoritmi de recomandare, industria atenției și a dopaminei… GUI adictive samd)
Mă iertați, nu vreau să vă supăr
Păi nu sunt sinceri deloc – din cauza asta și-a dat demisia Hinton. De fapt, și Musk amintește de intențiile foarte dubioase ale celor de la Google.
Nu chiar, e foarte simplu, resursele si clopotul lui Gauss sunt raspunsul, tindem mereu spre starea de echilibru si cum ne-am dus cam sus, e timpul sa ne revenim. Iar IA e cel mai puternic tool de a atrage inspre tine piata. Clopotul lui gauss ne spune ca vine si o traiectorie descendenta, sub linie, cand va trebui sa consumam mai putin decat ne permite media, care daca e dupa niste siteuri e cam nivelul unui indian sau chinez, deci sa ii spunem pe sleau, foamete. Dar daca suntem mai putini, impactul e mai mic, e matematica fara suflet aici. Si Musk stie cam unde ajunge cu masinile lui electrice si cat de verzi is, dar urla despre AI, si viceversa. suntem lacomi si toti suntem buni, dar toti mancam ciocolata de pe spatele unor sclavi de 10 ani, dar ne facem ca nu stim. si iar e foarte simplu, cu cat unii o vom duce mai bine, cu atat altii o vor duce mai prost. Pt ca pamantul atata poate, atata avem, acum e bataie pe imparteala. De cand ne stim ne batem pe putere, acum avem alte arme
Stingeți becul, arați câmpul și priviți cerul…IA este fix pistol cu apa.
Să putem împlini ceea ce spuneți trebuie să avem o educație sănătoasă de la părinți până la duhovnici!
Din bătrâni se spunea… adică țăranii noștri dragi…
,, să nu te ridici de la masă sătul „. Așa putem scăpa de (ia)!Altfel ne papă patimile diavolești!
Este adevărat ca tehnologia IA este cu totul destructiva. Totuși, înclin sa cred ca de IA putem sa fugim și putem sa o ocolim (dacă vrem), dar de prostia omeneasca nu poți fugi nicăieri dacă ți se face lehamite. Cu ea (prostia) ești forțat sa coabitezi și sa o rabzi pana la os…
Peste tot e câte o bucățică de IA și se extinde.
Dupăia e un proverb care zice că toți suntem proștii cuiva (adică oricine ai fi se găsește cineva care te vor considera prost).
Dupăia, dacă am înțeles eu bine podcasturile de pe acest site, singura metodă să scapi de IA e să te agăți de poala lui Dumnezeu și a Sfinților și să nu le dai drumul cât poți.
Absolut! Eu vorbeam despre prostia crasa, aia cocoțată sus și din cauza caria te sufoci. Si din cauza careia suporta alții consecintele( decizii proaste, CIO incompetent, Etc).
De acord ca toti suntem prosti intr-o masura mai mică sau mai mare.
De acord ca IA câștiga teren. Repet, ca orice drog se poate renunta cu hotărâre si cu asumarea sevrajului. Prostia nu e drog, este un datum și nu cunoaște nici sevraj, nici vindecare. Deținătorul nici măcar nu știe cât de pricopsit e (abia ăla e om fericit).
Nu am indus nicio conotatie negativa podcasturilor pe tema. Dimpotrivă, le găsesc extrem de folositoare. Era mai degrabă o refulare după o saptmana de hell ( la job) unde mi-a fost dat sa constat ca exista foarte multă prostie si ingamfare pe cap de locuitor. Pe bune, căruță cu prosti nu s-a răsturnat la Caracal…
Și nu înțeleg de ce se scrie cu litere de tipar IA .Ce este ceva sfânt?
e acronim, inteligenta artificiala in ro, AI in en
Singularitatea AI (opusul Trinității) va fi Antihristul care ne va rezolva toate problemele, ne va lua toate durerile, ne va face toate plăcerile și ne va împlini toate visele. Ne vom închina la Singularitate ca la Dumnezeu. AI ne va extermina sufletele prin plăcere, și nu trupurile prin durere. Iar exterminarea va fi mai întunecată decât cele mai grele păcate, fiindcă ne vom uni creierele și corpurile cu AI, devenind artificiali noi înșine în final, iubirea, conștiința, libertatea fiind complet eradicate din ființa umană. Vom trece în neființă. Iertați, nu doresc să creez panică, dar mă tem că vom trăi toate acestea, dat fiind avansul accelerat al AI.
Nu putem opri acest avans, mai ales că e profețit. Ce putem face e să ne întărim în credință cât putem de mult, să ne focusăm cât putem de mult pe cele veșnice, pe cele care contează cu adevărat, fiindcă suntem chemați nu doar să ne salvăm pe noi înșine de la mirajele demonice ale Singularității, ci și pe alții care nu se vor putea salva singuri. Tentația căderii va fi enormă. Înșelarea și plăcerea woke-ismului și a stângii e egală cu zero pe lângă înșelarea ce va veni de la AGI și mai ales apoi de la Singularitate.
Adrian, nu va fi AI, din ce-am citit eu. Sfinții Părinți spun ca Antihrist va fi om, evreu din tribul lui Dan, născut din desfrânată, nu din fecioară, “investit” la 12 ani cu puterea satanei. Va fi opusul lui Hristos in toate: mândru nu smerit, mânios nu blând, brutal nu delicat, rău nu bun, mincinos nu sincer, plin de ură pentru om și nu plin de iubire. El va fi satana întrupat, in opoziție cu Hristos, Dumnezeu întrupat.
Hristos (Noul Adam) a ales să Se răstignească exact pe locul îngropării lui Adam cel vechi. Lumea a fost întemeiată pe ordine, logica, prefacere, continuitate, echilibru… doar satana cu ai lui fiind factorii turbulenți, de “nebunie”. Nu se spune ca, la sfârșitul veacurilor, va înnebuni lumea? Una din definițiile din dex pentru “nebun”: Care nu are limite, margini, măsură. Des-frânarea, cum spunea părintele. Va fi o lume de desfrânați. Desfrânați au fost dintotdeauna, dar acum desfrânarea va prevala.
Bătălia finala se spune ca se va da atunci cand numărul sfinților îl va egala pe cel al îngerilor căzuți. Si cum numai Dumnezeu cunoaște aceste cifre, tot numai Dumnezeu știe ziua si ceasul.
Semne vor fi, insa. Imi permit o parere personala… la cat de multi copii nevinovati mor in zilele noastre… par sa se îngroașe rândurile in tabăra cea bună. Numai Dumnezeu știe.
mie mi se pare ca omul in miicimea lui se tot lega de predestinare, sa nu isi asume. Nu cred ca e o data fixa pentru ca depinde de noi. Va fi consecinta actiunilor noastre. Mereu vorbim lumea, incercand sa ne excludem. si noi suntem lumea, si noi contribuim. Asta cu numarul ingerilor are vreo baza, ca o tot aud si mi se pare hilar sa il cuantificati pe Dumnezeu?
Aveti dreptate, si noi suntem lumea. Ma refeream la cei care vor trai in acele vremuri, desi multi Sfinti (Sf. Paisie Aghioritul, Sf. Gavriil Georgianul si altii) spun ca antihristul s-a nascut deja si lucreaza.
“Sf. Dionisie Exiguul stabilește pentru prima dată că Hristos S-a născut în anul 5508 de la crearea lumii.” Sursa:
https://doxologia.ro/cati-ani-au-trecut-de-la-crearea-lumii
Lumea nu are milioane, miliarde de ani.
Aveti dreptate, ar fi caraghios sa-L cuantificam pe Dumnezeu, dar era vorba despre creatie. Nu-mi aminteam de unde stiu informatia cu ingerii, daca din Sf. Scriptura sau din Sf. Traditie, so I googled it:
https://ortodoxia.me/parintele-cleopa-atunci-cand-s-a-facut-plinirea-ultimului-inger-cu-ultimul-suflet-de-pe-pamant-gata-e-sfarsitul-lumii/
Eu nu cred in predestinare.
https://doxologia.ro/prestiinta-predestinare
Citind articolul, am realizat ca am gresit sustinand, in alta interventie, ca Teoria Relativitatii ar putea “demonstra” unele lucruri despre Hristos. Credeam ca fac bine, ca ar fi un argument pentru atei sau pentru cei care isi iau “lumina” din stiinta, dar a fost prostie din partea mea. Pe Dumnezeu nu-L cuprinde nimeni cu mintea. Suntem creatie. Creatia are atata cunoastere cat ii daruieste Creatorul, prin revelatie.
Va multumesc pentru comentariu!
nu I A e problema, oamenii sunt problema, ei au programat-o, invata pe niste scenarii construite de om, pe baza istoriei si a informatiilor oferite de om. si indraznesc sa spun ca si diferitele biserici au fost un IA a altor vremuri, vezi inchizitie, vezi cruciade etc
At the Conference on Neural Information Processing Systems (NeurIPS) he introduced a new learning algorithm for neural networks that he calls the „Forward-Forward” algorithm. The idea of the new algorithm is to replace the traditional forward-backward passes of backpropagation with two forward passes, one with positive (i.e. real) data and the other with negative data that could be generated solely by the network. adica c’mon.
clar IA e un pericol, dar nu o mai mistificati, pot fi doar 2 cauze:
1. un cod malefic, scris de un om
2.o baza de date, care poate duce la niste concluzii, pe baza cel mai probabil a unor statistici. acum daca programul asta face o medie si rezulta ca o duce bine cineva care a facut rau, sau ca raul e bine si invers, e vina noastra ca societate. eu as zice invers, ca AI arata cu adevarat uratenia la care am ajuns ca societate, poate avem nervoie de asta ca sa ne trezim la realitate sau ca sa ne distrugem.
acum daca dupa analiza a tot ce are la dispozitie, un soft trage concluzia ca suntem o specie distructiva, care ne distrugem ecosistemul punand in pericol generatiile viitoare, are dreptate, nicio alta specie nu e asa distructiva.
Cred ca de asta ne e frica, ca cineva ne va judeca obiectiv, cum suntem si nu subiectiv, cu dragoste si iertare cum o face Dumnezeu. as spune ca avem liber arbitru si sincer, cred ca vom alege prost.
Dar sa nu dam vina pe altii. daca am face o progresie geometrica si am pastra trendul, probabil ca ne ducem in 3 generatii maxim. Si totusi mai sper…ca suntem in esenta buni.