Către sfârşitul lunii aprilie celebrul fizician Stephen Hawking, împreună cu alţi trei cercetători de renume (Max Tegmark, fizician, Stuart Russell, expert în computere şi Frank Wilczek, laureat al premiului Nobel), a publicat un articol în The Huffington Post despre pericolele pentru omenire ce apar odată cu dezvoltarea inteligenţei artificiale. Iată cele  mai importante idei exprimate de aceştia.

 

 

Există tentaţia să considerăm că maşinile inteligente reprezintă doar subiect de film (şi avem un film recent pe acest subiect, Transcendence, cu Johnny Depp). În realitate lucrurile sunt diferite. În domeniul inteligenţei artificiale se fac progrese incredibile. Maşini care nu au nevoie de şofer uman, computere care câştigă Jeopardy! (Watson / IBM), asistentul personal Siri, Google Now, Cortana - reprezintă semnele unei adevărate curse a înarmărilor în domeniul IT, având la bază investiţii (şi aşteptări de câştig) enorme, totul pornind de la o bază teoretică deja solidă. Şi cu siguranţă acesta este doar începutul.

Succesul în crearea inteligenţei artificiale va fi cel mai însemnat progres al omenirii. Dar s-ar putea să fie un capăt de drum, dacă nu învăţăm să evităm riscurile. De exemplu, unele armate evaluează sisteme de arme autonome, care pot alege şi distruge ţintele fără intervenţia vreunui operator uman. În acest caz, în cazul unor erori, cine va fi tras la răspundere? Un computer? Programatorul softului armei? Dar, desigur, perspectiva cea mai înfricoşătoare este cea de a pune decizia privind distrugerea unor bunuri ori, şi mai rău, uciderii unor oameni, în "responsabilitatea" unei maşini. ONU şi Human Rights Watch s-a exprimat deja împotriva acestor arme, dar vor reuşi să evite crearea şi utilizarea lor?

Supercomputerele vor ajunge, probabil, să se poată îmbunătăţi ele însele, putându-se autoevalua şi să-şi propună perfecţionarea. Nu există nicio lege a fizicii care să interzică un asemenea fenomen. Astfel putem imagina (deocamdată) mașini care pot fi mai inovative decât cercetătorii, care pot manipula liderii politici ori care pot dezvolta arme pe care, noi, oamenii, nu le vom mai putea nici măcar înţelege. Oricum deja trăim într-o societate în care tehnologia mai este înţeleasă doar de o mică minoritate. De ce n-am ajunge, în condiţiile evoluţiei inteligenței artificiale, să nu mai înţelegem deloc anumite instrumente create de maşini?

"Ar fi normal să considerăm că date fiind beneficiile şi riscurile incalculabile asociate dezvoltării inteligenţei artificiale, experţii fac tot ceea ce depinde de ei pentru a asigura o evoluţie cât mai sigură a lucrurilor, nu? Greşit! Dacă o civilizaţie extraterestră superioară ne-ar trimite un mesaj prin care ne-ar spune "Vom veni în câteva decenii" am răspunde "Ok, sunaţi-ne când ajungeţi"? Probabil că nu, dar cam aşa este comportamentul nostru, raportându-ne la riscurile pe care le ridică apariţia inteligenţei artificiale. [...] Toţi, nu doar cercetătorii ori generalii, ar trebui să ne întrebăm ce putem face pentru a creşte şansele de a culege doar beneficiile dezvoltării inteligenţei artificiale şi de a evita riscurile".

Citiţi articolul citat aici: artificial intelligence

Write comments...
symbols left.
You are a guest ( Sign Up ? )
or post as a guest
Loading comment... The comment will be refreshed after 00:00.

Be the first to comment.