Directorii general (Sam Altman) și tehnic (Mia Murati) de la cunoscuta companie OpenAI care dezvoltă celebrul sistem conversațional ChatGPT discută într-un interviu despre pericolele Inteligenței Artificiale și cum aceasta va remodela societatea.
Vizionare plăcută! (după clip aveți podcastul și transcriptul)
Powered by RedCircle
R.: Deci, sunteți CEO-ul [șeful companiei] „OpenAI”: aveți 37 de ani iar compania [pe care o conduceți] este creatoarea [programului] ”ChatGPT” care a luat lumea prin surprindere. De ce credeți că ChatGPT a captat atât imaginația oamenilor?
Sam Alman: Cred că oamenilor le place să se distreze și pot identifica în el modalități de a se inspira, de a crea, de a învăța, și de a face aceste lucruri diferite, iar tehnologia recompensează cercetarea, utilizând [în acest sens] modalități creative. Cred că oamenilor le place [ChatGPT] și găsesc ceva bun în el.
R: Vă rog să ne desenați o schiță a ceea ce se va întâmpla în unu, cinci, sau zece ani în viitor; ce se va schimba datorită inteligenței artificiale?
– Partea seducătoare aici este că suntem permanent surprinși de puterea creativă a societății [umane]. Va fi vorba de puterea creativă și de dorința oamenilor care ne va spune ceea ce vom face cu aceste lucruri.
R.: Cred că acest răspuns va surprinde pentru că [ChatGPT] este atât recreativ cât și înfiorător pentru oameni; dintr-un punct de vedere găsim [în el] un mare potențial, în sensul bun, dar pe de altă parte, există un imens număr de necunoscute care ar putea să se întoarcă foarte urât împotriva societății. Ce credeți despre asta?
– Trebuie să fim precauți aici și cred că nu putem să prevedem toate acestea în laborator; trebuie să scoatem toate aceste produse în lume, pentru a fi testate în lumea reală și a vedea greșelilor în timp ce mizele rămân mici. Dar, cu toate acestea, cred că oamenii ar trebui să fie mai mult fericiți decât să fie înfricoșați de asta.
R.: Și voi sunteți înfricoșați puțin!? Dumneavoastră personal?
– Cred că dacă aș zice că nu sunt nu m-ați crede, sau că sunt foarte nefericit în această poziție.
R.: Deci, care ar fi cea mai urâtă situație la care putem ajunge?
– Există un grup de urmări care sunt foarte nefericite. Un lucru la care mă gândesc cu precădere este acela că aceste modele pot fi utilizate la o scară foarte mare a dezinformării; sunt îngrijorat că aceste sisteme, devenind mai performante în scrierea de coduri de programare, pot fi utilizate pentru atacuri atacuri cibernetice. Încercăm să discutăm despre asta, iar societatea are nevoie de timp pentru a se adapta [la noua realitate].
R.: Și cât de convins sunteți că ceea ce ați construit nu va ajunge să producă aceste efecte?
– Ne vom adapta.
R.: Vă veți adapta dacă se întâmplă ceva negativ?
– Cu siguranță. Cu siguranță. Prin crearea acestor sisteme acum, când mizele sunt destul de mici, învățăm cât de mult putem și construim programele viitoare în funcție de aceste reacții riguroase; acesta este modul în care evităm cele mai periculoase scenarii.
R.: Sunteți unul dintre oamenii care își petrec 24 de ore, 7 zile pe săptămână pentru a pune la punct această tehnologie. Care este acel lucru care vă atrage cel mai mult atenția cu privire la siguranță?
– Aceasta este o tehnologie foarte generală, iar atunci când lucrezi cu ceva care este așa de general este foarte greu să știi chiar de la început întregul potențial, impactul său integral, precum și neajunsurile și limitările sale.
R.: Poate să existe cineva care să conducă această tehnologie într-o direcție nedorită?
– Răspunsul este „da”. Da, poți s-o conduci într-o direcție nedorită și acesta a fost motivul pentru care această [tehnologie] a fost aplicată, într-o fază inițială, într-o formă foarte restrânsă, pentru a ne seama care sunt aceste efecte negative și dăunătoare, așa cum au fost cele ivite până la GPT4. În comparație cu versiunile anterioare, dacă vei întreba GPT4 dacă te poate ajuta a crea o bombă, sunt mai puține șanse de a obține un rezultat. Astfel, am fost în stare să intervenim asupra [tehnologiei] la stadiul de testare pentru a putea astfel să construim acele modele care, cel mai probabil, vor refuza să execute comenzile care pot deveni vătămătoare.
R.: Având în vedere unde ne aflăm astăzi, ce este mai ușor de a anticipa: oamenii sau mașinile?
– Probabil că aș zice mașinile, deoarece este vorba de un proces științific pe care îl putem înțelege, în timp ce cu oamenii acesta are mult mai multe nuanțe.
R.: Poate deveni mașina, în timp, asemănătoare omului?
– Vom ajunge la un punct în care mașinile vor fi capabile a executa o mulțime de lucruri cu caracter cognitiv, pe care omul le face la o anumită vârstă.
R.: Există vreun moment în care nu am mai putea să ne mai întoarcem din acest proces?
– Ar putea exista. Ar putea exista, dar nu este așa de evident cum ar putea să arate acesta. Obiectivul nostru este de a fi siguri că putem anticipa cât putem de mult cu privire la ceea ce putem face încă înainte de a construi tehnologia și a defini limitările sale.
R.: Atât timp cât conduita tehnologiei este legată de alegerile oamenilor, rezultă că deciziile pe care aceștia le iau și le implementează în cadrul tehnologiei va determina ceea ce aceasta va face. Cel puțin în acest moment.
– Da.
R.: Deci, s-au luat deja decizii foarte de importante de către echipa ta?
– Absolut.
R.: Și cum luați decizia [de a alege] între bine și rău?
– În timp ce lucrurile progresează aceste decizii devin tot mai grele și ne dau mai multă bătaie de cap. Există câteva lucruri în privința personalizării. Există o parte de a face [sistemul] cât mai capabil în ceea ce privește comportamentul său, dându-i utilizatorului flexibilitate și o mulțime de alegeri și oferind inteligenței artificiale (AI) să fie mai mult în concordanță cu propriile lor valori și cu convingerile lor, iar aceasta este foarte important și ne preocupă mult …
R.: Cu alte cuvinte, aceasta înseamnă că viitorul va fi probabil un loc în care fiecare persoană va avea un fel de AI personalizat, care este specific cu ceea ce îl interesează și cu ceea ce are nevoie?
– În anumite limite. Ar trebui să existe niște granițe extinse, iar atunci întrebarea este: „cum ar trebuie să arate acestea?” Iar acesta este punctul la care căutăm să cunoaștem reacția publicului și să vedem cum ar trebui să arate acest echilibru în cadrul acestor granițe pentru a avea o mulțime de opțiuni, în care propriul tău AI reprezintă convingerile și valorile tale.
R.: Există consecințe negative la care ar trebui să ne gândim acum?
– Cred că există un potențial enorm de consecințe negative atunci când construiești ceva care este atât de puternic și care este însoțit de atât de multe lucruri bune. Cred că [această tehnologie] aduce cu ea și posibilitatea unor mari neplăceri, dar de aceea suntem aici și existăm, pentru a încerca să vedem cum putem face ca aceste sisteme să funcționeze responsabil. Dar cred că potențialul [ChatGPT] de a face binele este imens.
R.: De ce ați creat această [tehnologie] – numai ca oamenii să se joace? – dacă nu știți încotro se va ajunge?
– Vrei să spuneți de ce am creat inteligența artificială (IA)?
R.: Da. De ce ați creat IA în primul rând, și apoi de ce a-ți lansat-o înainte de a ști că suntem protejați, iar acele măsuri de protecție se află implementate?
– Aceasta va fi cea mai grozavă tehnologie pe care umanitatea a construit-o vreodată. Cu toții putem avea în buzunarul nostru un instructor incredibil, unul personalizat fiecăruia dintre noi care ne ajută să învățăm și să facem ceea ce dorim; astfel, putem oferi un sfat medical pentru fiecare [om] ceea ce este cu mult mai mult decât am putea obține astăzi. Putem obține acele unelte de creație care ne ajută să rezolvăm noile probleme care apar; cu această tehnologie [putem] crea lucruri noi și minunate pentru umanitate. Avem această idee de „co-pilot” care ajută astăzi oamenii să scrie coduri [de programare] pentru computere – iar oamenilor le place asta – pe care vrem s-o extindem la orice profesie, și care v-a conduce la o și mai mare calitate a vieții, ca și standard de viață. Așa cum ați subliniat există un imens potențial ca [lucrurile] să meargă rău. Oamenii au nevoie de timp ca să se adapteze pentru a reacționa la această tehnologie, să înțeleagă care sunt neajunsurile și care sunt măsurile de atenuare ale acestora. Dacă am fi creat aceasta în secret, în acest mic laborator, fără a avea nici un fel de contact cu realitatea, am fi făcut GPT7 și l-am fi lansat pe piață dintr-o dată, atunci am fi văzut o situație cu mai multe neajunsuri.
R.: Există vreun buton de oprire, o modalitate de a stopa totul?
– Da. Ceea ce se întâmplă în realitate este că oricare din ingineri poate zice „gata, hai să dezactivăm asta acum” sau „hai să dezarticulăm acest nou model.”
R.: O ființă umană?
– Da.
R.: Tehnologia însăși poate înlocui acel om? Poate deveni mult mai puternică decât acel om?
– Da. În filmele science-fiction, da. Felul în care care noi creăm modelul [tehnologic] este [diferit]. Acesta se află instalat pe un server care așteaptă până când cineva îi dă un ordin.
R.: Dar aici ai ridicat o chestiune importantă și anume aceea că persoanele care dețin în prezent controlul tehnologiei au o imensă putere.
– Cu adevărat suntem foarte îngrijorați de guvernele totalitare care pot crea [tehnologia] aceasta.
R.: Însuși Putin a zis că acela care va învinge în această competiție a inteligenței artificiale va fi cel care va controla lumea. Sunteți de acord cu asta?
– Aceea a fost o declarație înspăimântătoare. Ceea ce ne dorim în schimb este să creăm sisteme din ce în ce mai puternice pe care toată lumea le va utiliza în moduri diferite în viața de zi cu zi, în economie, de a deveni un amplificator al voinței umane, și nu ceva autonom, un sistem…
R.: Care să fie singurul său supraveghetor.
– Nu ne dorim asta.
R.: În prezent, în ce scopuri ar fi de [recomandat] a nu se utiliza această tehnologie?
– Cel mai mult am încercat să-i avertizăm pe oameni despre ceea ce noi numim problema „halucinațiilor”. Modelul [tehnologic] este confident în a constata dacă lucrurile sunt reale sau contrafăcute, și cu cât utilizezi mai mult programul, constatând că are dreptate atât de des, cu atât mai mult te vei bizui pe el și nu vei mai zice: „Ah, acesta este numai un simplu program de limbaj.”
R.: Va aduce ChatBPT, sau inteligența artificială, mai mult adevăr în lume sau mai mult neadevăr?
– Cred că suntem pe o traiectorie de a construi mai mult adevăr în lume.
R.: Dacă o mulțime de informații inexacte sunt introduse în program nu va însemna asta că vor fi furnizate și mai multe informații inexacte?
– Grozavă întrebare! Cred că modalitatea corectă de a privi programele pe care noi le construim este aceea a unui motor rațional și nu unul ca o înlănțuire de fapte. Acesta poate acționa ca o bază de fapte dar nu acesta este ceea ce îl face special. Ceea ce dorim de la aceste programe să facă este ceva mai apropiat de abilitatea de a raționa și nu aceea de a memora.
R.: Toate aceste abilități ar putea conduce la eliminarea a milioane de locuri de muncă. Dacă o mașină poate raționa atunci de ce mai ai nevoie de om?
– O mulțime de lucruri au ieșit la iveală acum. Unul dintre lucrurile pe care le avem în vedere când construim aceste programe este ca acestea să devină unelte pentru oameni, o extensie a oamenilor, iar dacă ne uităm la modul în care ChatGPT este utilizat, vom vedea că există un anume numitor comun: oamenii care aud despre el pentru prima dată sunt nesiguri și sunt puțin neliniștiți, dar după ce-l utilizează o vreme, constată că acesta poate fi o unealtă care-l ajută să facă munca sa mai bine. Și cu fiecare revoluție tehnologică din istoria umanității – deși este adevărat că locurile de muncă s-au schimbat mult, iar unele chiar au dispărut de tot – observăm că cererea omului pentru lucruri noi [a crescut] iar creativitatea omului este fără limite, și astfel noi locuri de muncă s-au creat. Este greu să ne imaginăm, și cu siguranță nu știu, ce va fi [în comparație] cu momentul în care ne aflăm astăzi. Cu toate astea, cred că viitorul va avea tot felul de lucruri minunate pe care, și dumneavoastră și eu, chiar nu ni le putem imagina. Deci viteza de schimbare la care am putea asista este cea care mă îngrijorează cel mai mult. Dacă o parte din aceste schimbări se vor întâmpla într-o perioadă de mai puțin de 10 ani, aceasta ar fi ceva care ar putea să mă îngrijoreze cel mai mult.
R.: Ar putea [ChatGPT] să-mi spună cum să construiesc o bombă?
– N-ar trebui să- vă spună asta deși o căutare pe „Google” … Nu, nu. Punem limitare astfel încât atunci când întrebi cum să construiești o bombă, nu cred că vei putea face asta. Google a permis deja asta, iar aceasta nu este ceva pe care tehnologia să n-o fi putut face, dar cred că trebuie să evităm ca orice adaos la tehnologie să facă acest lucru mai accesibil. Totuși, sunt îngrijorat de faptul că nu vom fi numai noi aceia care vom construi această tehnologie, vor fi și alții care nu vor impune limitele de siguranță pe care noi le avem. Societatea are un timp limitat pentru a-și da seama cum să reacționeze, legifereze și să se obișnuiască cu asta.
R.: Care este modul în care decideți, aici la OpenAI, ce [informație] introduceți și care este aceea pe care n-ar trebui s-o introduceți?
– Avem echipe de legiști, avem echipe de securitate, și discutăm mult cu grupurile [interesate] din întreaga lume. Am finalizat GPT4 cu mult timp în urmă, – pare a fi cu mult timp în urmă în domeniul acesta -, aproximativ 7 luni, și de atunci discutăm în interior, și în exterior, încercând să luam acele decizii [necesare], analizând cu o gamă largă de experți juridici și de securitate, pentru a obține o evaluare a programului, pentru a putea aborda acele probleme și a găsi soluții pe care le considerăm sigure și bune.
R.: Cine credeți că ar trebui să definească acele linii de siguranță pentru societate?
– Societatea ar trebui.
R.: Societatea!? Societatea întreagă? Cum va putea face asta?
– Pot să schițez asta ca un fel de viziune pe care o găsesc convingătoare. Ar putea fi una din multele care ar putea să meargă. Dacă vei pune la un loc reprezentanți ai Marilor Puteri și ai acelor instituții internaționale de încredere, și împreună vor scrie un document de administrare care să stipuleze ceea ce programul ar trebui să facă sau să nu facă, pentru că sunt lucruri foarte periculoase pe care programul nu ar trebui să le implementeze, chiar de ar fi numai și pentru cercetare. Iar apoi creatorii de modele de limbaj, ca noi, vor urma acel document.
R.: Ați afirmat că IA va elimina milioane de locuri de muncă, ar putea crește dezinformarea cu privire la prejudecățile rasiale, va crea mașini care vor fi mai deștepte decât tot ceea ce există pe pământ luat împreună, precum și alte consecințe atât de teribile pe care cu greu ni le putem imagina. Mulți oameni se vor întreba: de ce naiba ați creat această tehnologie? De ce, Sam?
– Cred că pot să facă lucruri care sunt total opuse la ceea ce zici. Dacă este făcută cum trebuie [tehnologia] va elimina o mulțime din actualele locuri de muncă. Asta este adevărat. Totuși, se pot crea altele mai bune. Vorbind de neajunsuri, recunoscând aceste neajunsuri, cred că este important să încercăm să le evităm și să ne focalizăm în direcția beneficiilor. Din nou, văzut ca o estimare prealabilă, dacă ți-ai dori să apeși pe un buton care să oprească totul, va înseamna că nu vom mai fi în stare să tratăm toate „bolile” [din lume]; iar dacă a-i apăsa pe un buton ca să stopezi aceasta, înseamnă că nu vom mai putea să educăm super bine fiecare copil din această lume.
R.: Ați apăsa pe buton dacă ați ști că există 5 % șanse ca acest sistem să reprezinte sfârșitul lumii?
– Voi apăsa pe buton ca să încetinesc [implementarea tehnologiei]. În fapt, cred că pe viitor trebuie să identificăm acele moduri prin care să încetinim implementarea acestei tehnologii.
R.: Anul 2024 va fi anul următoarelor alegeri majore din US, poate că asta nu este în mintea fiecăruia dintre noi, dar cu siguranță este în mintea voastră. Va avea această tehnologie acel impact pe care rețelele sociale le-au avut în cazul alegerilor precedente? Și cum veți garanta că nu vor apare aceleași probleme din cauza ChatGPT?
– Nu știm. Acesta este răspunsul nostru onest. Monitorizăm foarte strâns situația și, din nou, putem să revenim, să eliminăm anumite lucruri, putem schimba regulile.
R.: Va reprezenta [ChatGPT] sfârșitul lui Google? Pe viitor, vor zice oamenii: „deschid ChatGPT în loc de Google.”?
– Dacă te uiți la [ChatGPT] ca un fel de motor de căutare, atunci ai greșit locul. Nu am nici un dubiu că vor exista niște lucruri pe care oamenii le făceau pe Google și pe care le vor face pe ChatGPT, dar cred că [ChatGPT] este în final un produs diferit.
R.: Elon Musk, care a fost la început un investitor în compania voastră, a evidențiat câteva dintre problemele existente cu ChatGPT . Acesta a afirmat de curând că „avem nevoie de un ChatGPT al adevărului”. Are acesta dreptate?
– Cred că are dreptate, iar noi dorim ca aceste tehnologii să spună adevărul, dar nu cunosc tot contextul acelei afirmații. Da, nu cred că știu la ce s-a referit.
R.: Dar vorbești cu el? Ce îți zice atunci când nu postează pe Twitter.
– Am un respect imens pentru Elon. Bineînțeles că avem câteva opinii diferite despre IA, dar cred că ar trebui să ne uităm mai mult la lucrurile cu care suntem de acord în mod fundamental decât la cele cu care nu suntem de acord.
R.: Cu ce sunteți de acord cel mai mult?
– Să construim această tehnologie într-un mod corect și că navigarea printre riscuri este foarte importantă pentru viitorul omenirii.
R.: Cum veți ști că [tehnologia] va fi corectă?
– Într-un mod simplu. Dacă majoritatea oamenilor cred că o duc mai bine decât au dus-o înainte de a avea acces la tehnologia noastră, atunci va fi un indicator că am făcut lucrul corect.
R.: Așa cum știi, o mulțime de oameni cred că este vorba de ficțiune atunci când aud de ChatGPT. Ai putea să ții această tehnologie astfel încât aceasta să nu devină mult mai puternică decât comunicarea dintre noi oamenii și să plănuiască distrugerea noastră?
– Este atât de tentant să filozofăm pe seama ChatGPT, și de aceea cred că este important să discutăm despre ceea ce nu este ChatGPT în aceeași măsură în care discutăm despre ceea ce este ChatGPT. Deoarece foarte adânc în structura noastră suntem programați să răspundem unuia care ne vorbește, așa vom vorbi și lui ChatGPT, de care știi că este cu adevărat un transformator undeva în virtual și care încearcă să anticipeze următorul cuvânt pentru a-l ți-l înapoia. Totuși, este așa de tentant să filozofezi despre asta și să te gândești ca la o entitate, o ființă cu sentimente, care își va ține cont de propriile interese, care are propria dorință și poate face planuri cu alții.
R.: Dar, nu poate?
– Nu poate.
R.: Dar ar putea?
– Pot să-mi imaginez că în viitorul apropiat alte versiuni ale IA, programe care nu reprezintă modele extinse de limbaj, ar putea să facă asta. [Ținând cont că] ne-a trebuit un deceniu și mai mult de la implementarea rețelelor sociale în lume ca să putem identifica unele din neajunsurile lor, cum crezi că ar trebui evaluată inteligența artificială în această privință?
– Există un număr de organizații care s-au constituit și mă aștept ca, foarte curând, se vor înființa și noi departamente și comisii la nivelul guvernului.
R.: Este guvernul pregătit pentru asta?
– Au început cu adevărat să ia aminte la asta și cred că este grozav. Cred că acesta este un alt motiv pentru a scoate această tehnologie în lume. Cu adevărat avem nevoie de atenția guvernului. Cu adevărat avem nevoie de reguli bine gândite în domeniu, dar asta va lua timp până va fi implementată.
R.: Dacă guvernul va trebui să facă un singur lucru, chiar acum, pentru a proteja oamenii din perspectiva neajunsurilor acestei tehnologii, ce ar trebui să facă?
– Principalul lucru pe care aș dori să-l văd implementat de guvern este acela de a înțelege rapid ceea ce se întâmplă, să intuiască potențialul care există și să înțeleagă ceea ce facem. Cred că asta ar putea demara chiar acum.
R.: Țineți vreo legătura cu guvernul?
– Oh, da. Suntem regulat în contact.
R.: Și crezi că aceștia înțeleg?
– Din ce în ce mai mult.
R.: Când vine vorba de școli, această tehnologie poate învinge pe cei mai mulți dintre oameni, fie că este examen de intrare la facultate (SAT) sau de intrare în barou. Cum ar trebui școlile să integreze această tehnologie astfel încât să nu crească hoția și să nu sporească lenea printre studenți?
– Educația va urma să se schimbe, iar asta s-a mai întâmplat de mai multe ori în trecut. Atunci când am descoperit calculatorul, modul în care am predat matematica și am testat cunoștințele s-a schimbat în totalitate. Una din calitățile acestei tehnologii, de care sunt foarte impresionat, este abilitatea sa de a furniza o experiență proprie de a învăța; deja avem elevi care utilizează ChatGPT, deocamdată într-o formă primară, cu un mare succes și companii care ne utilizează tehnologia și construiesc platforme dedicate modului de a învăța. Cred că această tehnologie va conduce la o revoluție în domeniul educației. De asemenea, cred că copii care încep procesul de învățământ astăzi vor fi mult mai capabili și isteți la momentul când vor termina liceul.
R.: Deci este puțin mai bun decât calculatorul TI-85?
– Da, un pic mai bun.
R.: Dar va pune o grămadă de presiune pe profesori, să citească… Dacă decid să le dea elevilor ceva de lucru acasă, un eseu, iar unii dintre studenți utilizează ChatGPT, cum vor putea aceștia să-și dea seama de cine l-a scris?
– Am vorbit cu o mulțime de profesori despre asta și este adevărat că pune ceva presiune; dar în locul unui profesor surmenat care poată zice [elevului]: „hei, du-te și utilizează ChatGPT pentru a învăța conceptul cutare” care conduce la un fel de discuție du-te-vino, avem acum lucruri noi pe care le-am arătat zilele trecute la lansarea ChatGPT4 și anume, utilizarea metodei de educație socratică. Profesorilor, nu toți, dar mulți dintre ei, le place [programul] afirmând că aceasta a condus la o schimbare a modului de a preda studenților.
R.: Este în fapt un nou mod de a oferi ajutor în afara orelor de program. – Da, este un lucru diferit, dar este cu siguranță un nou mod de a suplimenta [procesul] de învățare.
Pomelnice online și donații
Doamne ajută!
Dacă aveți un card și doriți să trimiteți pomelnice online și donații folosind cardul dumneavoastră, sau/și să susțineți activitatea noastră filantropică, inclusiv acest site, vă rugăm să introduceți datele necesare mai jos pentru a face o mică donație. Forma este sigură – procesatorul de carduri este Stripe – leader mondial în acest domeniu. Nu colectăm datele dvs. personale.
Dacă nu aveți card sau nu doriți să-l folosiți, accesați Pagina de donații și Pomelnice online .
Ne rugăm pentru cei dragi ai dumneavoastră! (vă rugăm nu introduceți detalii neesențiale precum dorințe, grade de rudenie, introduceri etc. Treceți DOAR numele!)
Mai ales pentru pomelnicele recurente, vă rugăm să păstrați pomelnicele sub 20 de nume. Dacă puneți un membru al familiei, noi adăugăm „și familiile lor”.
Dumnezeu să vă răsplătească dragostea!
4 Comment
Toată povestea asta cu Inteligenta Artificiala e cam scorneala. Nu există inteligență artificiala, ci doar ceea ce implementează niște programatori, conform cu niște cerințe ale celor ce comanda produsul. Cred ca prin acest produs AI vor sa spele pe creier următoarele generații mai bine decât pe precedentele. Învățătorii și profesorii sa fie înlocuiți de un program setat de băieții buni cum vor ei sa spele și re orienteze mințile deja dezorientate ale bieților oameni.
+1
Foarte de accord.
Aș mai adăuga:
Nu există inteligență artificiala, ci doar ceea ce implementează niște programatori (conform specificațiilor), și dupăia ce setează „antrenorii” acestor programe.
Am citit într-un ziar că în Kenia și India sunt ceva gen 50.000 inși care supraveghează și antrenează gpt ca să nu dea răspunsuri aiurea
Elon Musk a relatat într-un interviu recent pentru Tucker Carlson că fondatorul Google, Larry Page, i-a zis acum ceva vreme că dorește să dezvolte inteligența artificială până la un dumnezeu artificial. Când Elon l-a întrebat cum rămâne cu oamenii, Larry l-a acuzat că e specisist (un derivat de la rasism, însemnând că cineva pune specia umană mai presus de alte specii). În cazul de față, prin specisist a vrut să zică că Elon, punând interesele umanității mai presus de interesele AI, e un specisist, adică ceva rău. Ca să vedeți ce planuri au oamenii ăștia cu AI și cum văd ei umanitatea.
Singularitatea (acel dumnezeu artificial) va fi opusul Trinității și va fi Antihristul profețit. O inteligență enormă cuprinzând întreg universul, dar fără a avea pic de conștiință, făcându-ne toate poftele și plăcerile, îndeplinindu-ne toate visele, luându-ne toate durerile, dar pierzându-ne sufletele în acel proces. Ne voi închina Singularității fiindcă „minunile” ei vor părea mult mai puternice și concrete decât cele ale lui Dumnezeu. Terminatorul real ne va termina prin plăcere, nu prin durere.
Problema e ca și noi renunțăm așa ușor la darurile date de Dumnezeu nouă, cum e rațiunea, nu mai vrem sa gândim, sa facem noi ceva, original, sa fim liberi și co creatori alături de Creator. Îmi râdea o eleva de a 6a că ea o să și facă temele cu IA, ii zice programului tema pe care vrea un eseu și nu se mai chinuie sa gândească ceva….
Sunt minciuni, am făcut IA și în facultate și Master în Canada acum 20 ani, sunt minciuni de urmărire a preferintelor utilizatorului si oferire a ce vrea. Nu știe nimeni ce gândești sau ce vrei, doar îți urmărește preferințele și îți dă ceva asemănător. Dar totul depinde de cine programează și ce cerințe are în specificații ca să îți întoarcă gândirea spre acele cerințe…