Mari minți, precum Stephen Hawking (decedat în 2018), și-au exprimat în ultimii ani temerea că progresul din domeniul inteligenței artificiale ar putea duce la situația în care mașinile să preia controlul lumii într-un viitor nu prea îndepărtat, iar acest lucru ar putea duce la dispariția speciei umane. Aceste mașini ar fi, în fapt, computere super-inteligente, conștiente. John Searle, filozof american, spune că așa ceva nu este posibil și demonstrează asta cu un experiment mental, numit „experimentul camerei chinezești”.


Testul Turing și inteligența computerelor

Matematicianul englez Alan Turing a căutat să creeze teste prin care să verifice inteligența computerelor (Testul Turing). Ideea a fost următoarea: dacă în cadrul unui test o persoană-judecător, aflată într-o conversație cu persoană reală și cu un computer, nu poate spune care este persoana și care este computerul, atunci putem spune că avem de-a face cu un computer inteligent, în sens uman.


John Searle și experimentul camerei chinezești

Filozoful american John Searle propune un experiment teoretic numit „experimentul camerei chinezești” prin care își propune să demonstreze că inteligența umană nu poate fi obținută de către o mașină.

Să ne imaginăm că ar fi fost inventat un computer inteligent care se comportă ca şi cum ar înţelege limba chineză. Adică primeşte un set de caractere chinezeşti ca input şi, prin prelucrarea acestora potrivit instrucţiunilor din programul pe care-l rulează, produce ca output un alt set de caractere chinezeşti. Să presupunem că face acest lucru atât de bine încât trece cu uşurinţă testul Turing.
Acum să ne imaginăm că suntem într-un un birou, într-o cameră închisă, şi că avem asupra noastră o carte în limba română cu programul de calculator folosit de computer (toate instrucţiunile necesare pentru a efectua operațiunile pe care le-a efectuat și calculatorul). Astfel, primind pe sub uşă o foaie cu un set de caractere chinezeşti şi „rulând” manual setul de instrucţiuni din carte, am fi capabili să producem un alt set de caractere chinezeşti ca output. Cum computerul a trecut testul, ar fi corect să presupunem că şi operatorul uman îl va trece cu aceeaşi uşurinţă.

Nu există nici o diferenţă esenţială între cazul computerului şi cel al operatorului uman, întrucât în ambele situaţii se simulează un comportament inteligent, urmându-se instrucţiunile pas-cu-pas. Dar operatorul uman poate face asta fără a înţelege vreun simbol chinezesc. Astfel, nu putem afirma nici despre computer că trecerea testului dovedeşte faptul că acesta ar avea o înţelegere a limbii chineze şi că, în consecinţă, ar putea gândi.  

Searle arată că testul Turing este insuficient şi că ceea ce ar trebui să reproducă inteligența artificială nu este simularea comportamentului uman, ci intenţionalitatea, singura care ne poate garanta prezenţa gândirii.

Ideea principală a experimentului propus de Searle este că o mașină poate trece testul Turing, comportându-se așadar ca și cum ar înțelege ce procesează, dar, în fapt, nu înțelege. Iar înțelegerea face diferența dintre om și mașină.


Inteligența artificială generală

Probabil că ați citit de progresele inteligenței artificiale în ultimii ani. Dar în toate aceste cazuri nu putem de vorbi de calculatoare care au obținut inteligență în sens uman, ci doar de calculatoare care execută sarcini într-o manieră super-rapidă și inteligentă (pot, de exemplu, să se antreneze și să învețe din propriile greșeli). Mai multe pe acest subiect aici: Învățarea automată pe înțelesul tuturor

Dar marele vis al cercetătorilor din domeniul inteligenţei artificiale este să realizeze „inteligenţa artificială generală”, adică un soft care să aibă capacitatea de a se raporta la lume, în complexitatea ei, aşa cum o face fiinţa umană.


Pot mașinile deveni conștiente?

Vă invit să urmăriți videoclipul de mai jos, în care John Searle vorbește la sediul Google despre de ce crede că mașinile nu pot deveni conștiente. În partea de final sunt câteva întrebări din partea publicului care-l provoacă pe filozof să răspundă la întrebarea: de ce nu crede că, totuși, într-o zi, mașinile pot atinge performanțele omului, adică să devină conștiente.







Și totuși...

De dragul discuției am merge pe o altă logică, pentru a sugera că, în principiu, mașinile ar putea deveni conștiente.

Pe scurt, argumentația este următoarea: în cazul în care conștiința nu este alt lucru decât o stare de emergență a activității neuronale, de ce nu ar fi posibil ca și un robot al viitorului, cu o complexitate a rețelelor neuronale similară omului, să aibă un moment de „trezire”, în care devine conștient de sine, în care devine capabil  să perceapă ce se întâmplă în „mintea” lui?

La urma urmelor asta presupunem că s-a întâmplat și cu omul în urmă cu câteva mii de ani, nu? Dacă natura a permis ca omul să devină conștient, de ce s-ar opune ca o altă creatură, chiar și construită de om, să obțină aceeași formidabilă trăsătură, conștiința?

Ce este emergența?  Emergența reprezintă un produs, cum este conștiința, cu trăsături diferite de cele ale componentelor; în cazul nostru vorbim de neuroni, despre care presupunem că, împreună, creează conștiința, fără ca la nivel individual aceștia să fie conștienți.
Iată un alt exemplu de emergență: sodiul (Na), în stare pură, e un metal. Clorul (Cl), în stare pură, e un gaz otrăvitor. Când iei atomul de clor și-l pui lângă cel de sodiu, iese sarea de masă (NaCl), nici metal, nici otrăvitoare.


Unde vă situați, alegând între cele două extreme? Credeți că este posibil ca mașinile să obțină conștiință sau mai degrabă credeți că argumentul lui Searle împotriva conștiinței este de nezdruncinat?


Vă invităm să citiți și:
¤ Cel mai probabil nu vom înţelege niciodată ce este conştiinţa. Iată de ce
¤ De ce nu vom ști niciodată dacă avem liber-arbitru
¤ Nu știm nimic despre realitate, despre lumea-în-sine, și nici nu avem cum ști

 

 

Write comments...
symbols left.
You are a guest ( Sign Up ? )
or post as a guest
Loading comment... The comment will be refreshed after 00:00.

Be the first to comment.