A fost un șoc la nivel global ritmul rapid de progres al unor programe care folosesc inteligența artificială (IA), precum ChatGPT, programe create cu ceea ce este cunoscut sub numele de modele de limbaj mare (LLM). Aceste sisteme pot produce text care pare să aibă capacitate de gândire, înțelegere și chiar creativitate.

Dar pot aceste sisteme să gândească și să înțeleagă cu adevărat? Aceasta nu este o întrebare la care se poate răspunde prin progresul tehnologic, dar o analiză filozofică atentă ne spune că răspunsul este nu. Fără a rezolva aceste probleme filozofice, nu vom înțelege niciodată pe deplin pericolele și beneficiile revoluției IA.


În 1950, părintele computerului modern, Alan Turing, a publicat o lucrare care a prezentat o modalitate de a determina dacă un computer gândește. Acesta se numește acum „testul Turing”. Turing și-a imaginat o ființă umană angajată într-o conversație cu doi interlocutori ascunși privirii: unul ființă umană, celălalt un computer. Scopul este de a afla cine ce este, om sau mașină.

Dacă un computer poate păcăli 70% dintre evaluatori, într-o conversație de cinci minute, făcându-i să creadă că este o persoană, computerul trece testul.

Ar dovedi trecerea testului Turing – ceva care acum pare iminent – că o inteligență artificială a dobândit gândire și înțelegere?


Provocarea din șah

Turing a respins această întrebare, considerând-o ca fiind extrem de vagă și a înlocuit-o cu o definiție pragmatică a „gândirii”: a gândi înseamnă a trece testul.

Turing a greșit, totuși, când a spus că singura noțiune clară a ceea ce înseamnă „înțelegere” este cea pur comportamentală, care presupune trecerea testului.

Deși acest mod de a gândi acum domină științele cognitive, există și o noțiune clară, de zi cu zi, cu privire la „înțelegere”, care este legată de conștiință. „A înțelege” în acest sens înseamnă a înțelege în mod conștient un adevăr despre realitate.

În 1997, Deep Blue AI l-a învins pe marele maestru de șah Garry Kasparov. Bazându-ne pe o concepție pur comportamentală a înțelegerii, Deep Blue a demonstrat cunoștințe de strategie de șah care depășesc orice ființă umană. Dar softul nu este conștient: nu a avut sentimente sau experiențe.

Oamenii înțeleg în mod conștient regulile șahului și rațiunea unei strategii. Deep Blue, în schimb, era un mecanism fără simțăminte care fusese antrenat să fie foarte bun la joc.

De asemenea, ChatGPT este un mecanism fără simțăminte, care a fost antrenat pe volume uriașe de date create de om pentru a genera conținut care pare să fi fost scris de o persoană.

ChatGPT nu înțelege în mod conștient sensul cuvintelor pe care le generează. Dacă „gând” înseamnă actul de reflecție conștientă, atunci ChatGPT nu are gânduri despre nimic.


Pariul privind conștiința

Cum pot fi atât de sigur că ChatGPT nu este conștient? În anii 1990, specialistul în neuroștiință Christof Koch a pariat cu filozoful David Chalmers pe o ladă de vin fin că oamenii de știință vor identifica în întregime „mecanismele neuronale ale conștiinței” în 25 de ani.

Prin aceasta, el a vrut să spună că vor fi identificate formele de activitate cerebrală necesare și suficiente pentru experiența conștientă. Este timpul ca Koch să plătească, deoarece nu există niciun consens că acest lucru s-a întâmplat.

Conștiința nu poate fi observată privind în interiorul capului tău. În încercările lor de a găsi o legătură între activitatea creierului și experiență internă, neurologii trebuie să se bazeze pe mărturia subiecților lor sau pe markerii externi ai conștiinței. Dar există mai multe moduri de interpretare a datelor.

Unii oameni de știință cred că există o legătură strânsă între conștiință și cogniția reflexivă - capacitatea creierului de a accesa și de a utiliza informații pentru a lua decizii. Acest lucru îi face să creadă că, în fapt, cortexul prefrontal al creierului – unde au loc procesele la nivel înalt de dobândire a cunoștințelor – este implicat în mod esențial în toată experiența conștientă. Alții neagă acest lucru, argumentând în schimb că se întâmplă în orice regiune locală a creierului în care are loc procesare senzorială relevantă.

Oamenii de știință au o bună înțelegere a chimiei de bază a creierului. De asemenea, am făcut progrese în înțelegerea funcțiilor de nivel înalt ale diferitelor părți ale creierului. Dar nu avem nicio idee în ceea ce privește partea intermediară: modul în care funcționarea la nivel înalt a creierului este realizată la nivel celular.

Oamenii sunt foarte entuziasmați de potențialul scanărilor de a dezvălui funcționarea creierului. Dar fMRI (imagistica prin rezonanță magnetică funcțională) are o rezoluție foarte scăzută: fiecare pixel dintr-o scanare a creierului corespunde unui număr de 5,5 milioane de neuroni, ceea ce înseamnă că există o limită a cât de multe detalii sunt capabile să arate aceste scanări.

Cred că progresul asupra conștiinței va fi posibil atunci când vom înțelege mai bine cum funcționează creierul.


Pauză în dezvoltare

După cum argumentez în viitoarea mea carte „Why? The purpose of the universe”, conștiința trebuie să fi evoluat pentru că a instituit o diferență în ce privește comportamentul. Sistemele cu conștiință trebuie să se comporte diferit și, prin urmare, să aibă șanse mai mari de supraviețuire decât sistemele fără conștiință.

Dacă tot comportamentul ar fi determinat de chimie și fizică, selecția naturală nu ar avea nicio motivație pentru a face organismele conștiente; am fi evoluat ca mecanisme de supraviețuire fără simțăminte.

Pariul meu este că, pe măsură ce învățăm mai multe despre funcționarea detaliată a creierului, vom identifica cu precizie care zone ale creierului întruchipează conștiința. Acest lucru se datorează faptului că acele regiuni vor prezenta un comportament care nu poate fi explicat prin chimia și fizica cunoscute în prezent. Deja, unii oameni de știință în neuroștiință caută potențiale noi explicații pentru conștiință, care să completeze ecuațiile de bază ale fizicii.

Deși procesarea LLM-urilor este acum prea complexă pentru ca noi să o înțelegem pe deplin, știm că, în principiu, ar putea fi prezisă din fizica cunoscută. Pe această bază, putem afirma cu încredere că ChatGPT nu este conștient.

Există multe pericole prezentate de inteligența artificială și susțin pe deplin apelul recent al miilor de oameni, inclusiv liderii tehnologiei Steve Wozniak și Elon Musk, de a întrerupe dezvoltarea, pentru a aborda problemele legate de securitate. Potențialul de fraudă, de exemplu, este imens. Cu toate acestea, argumentul că descendenții pe termen scurt ai sistemelor actuale de inteligență artificială vor fi superinteligenți și, prin urmare, o amenințare majoră pentru umanitate, este prematur.

Acest lucru nu înseamnă că sistemele IA actuale nu sunt periculoase. Dar nu putem evalua corect o amenințare decât dacă o clasificam cu exactitate. LLM-urile nu sunt inteligente. Sunt sisteme antrenate pentru a da aspectul exterior al inteligenței umane. Înfricoșător, dar nu atât de înfricoșător.

Traducere și adaptare după ChatGPT can't think.
Autorul, Philip Goff, este profesor asociat de filozofie la Universitatea Durham

Write comments...
symbols left.
Ești vizitator ( Sign Up ? )
ori postează ca „vizitator”
Loading comment... The comment will be refreshed after 00:00.
  • This commment is unpublished.
    InCert · 11 months ago
    1. Apreciez articolul,  dar am ceva dubii cu privire la aceasta afirmatie a autorului: 
    "Dacă tot comportamentul ar fi determinat de chimie și fizică, selecția naturală nu ar avea nicio motivație pentru a face organismele conștiente; am fi evoluat ca mecanisme de supraviețuire fără simțăminte." 
    Mi se pare ca, dimpotriva, selectia naturala a creat organisme constiente (asa cum a facut si primul pas - organisme cu sistem nervos) tocmai pentru ca acesta este un subtil avantaj evolutiv pe termen lung -acesta ofera o flexibilitate exceptionala in infruntarea conditiilor de mediu !

    2. Este evident ca IA din prezent nu sunt constiente - in primul rand pentru ca nu s-a urmarit asta ! Dar in viitor ar putea fi programate sa simuleze aspectele principale ale constiintei umane - si atunci o sa fie greu de deosebit de comportamentul unui om - dar asta ar fi o preocupare colaterala, altele sunt veleitatile IA si aceastea nu au nevoie defel de vreo "constiinta". Nu a fost nevoie de constiinta de tip uman ca sa ne fie superioare la sah, go si in multe alte domenii. Si riscam sa fim striviti intocmai cum este strivit un opera de arta rafinata si complicat de un simplu dar eficent ciocan de demolari !

    3. Revenind la subiectul "constiinta (umana)= caracteristica evolutiva", am putea specula si ca complexitatea noastra neurologica ne-ar putea conduce si spre o fundatura biologica (extinctie), ca prea este multa liniste prin Univers :) Asa cum s-au intrerupt liniile evolutive a multor altor specii, nu vad imposibil sa ne tradeze tocmai complexitatea unui sistem nervos avansat. Cum ? Pai poate tocmai prin crearea IA :) Sau prin distrugerea mediului, catastrofe sociale, stiintifice, militare, etc