Aproximările realității nu pot înlocui adevărul. Până când industria tehnologiei nu va reconstrui inteligența artificială de la zero, halucinațiile și rezultatele absurde vor persista, iar multe dintre câștigurile de productivitate promise de modelele lingvistice mari vor rămâne inaccesibile.

De mulți ani liderii industriei promit că aceste erori vor dispărea. Și totuși, în ciuda investițiilor de sute de miliarde de dolari în construirea unor modele din ce în ce mai mari și mai puternice, erorile continuă să fie frecvente.

De ce este inteligența artificială generativă încă atât de nesigură, în ciuda eforturilor uriașe ale celor mai mari companii de tehnologie din lume de a rezolva problema?

Există mai multe motive. Unul dintre ele este calitatea slabă a datelor, o problemă agravată atât de diverse persoane care răspândesc informații false pe Internet, cât și de rezultatele îndoielnice produse de modelele lingvistice mari (LLM). Un alt motiv este incapacitatea acestor sisteme de a înțelege glumele.

O problemă mai profundă ține de distincția dintre aproximare și calcul.

Inteligența artificială „simbolică” convențională efectuează calcule în baza unor algoritmi și programe informatice tradiționale formulate abstract. De exemplu, ea poate calcula în mod fiabil cel mai scurt traseu între punctele A, B și C, analizând toate rutele posibile și alegând-o pe cea mai scurtă.

Însă inteligența artificială generativă funcționează diferit, aproximând ceea ce oamenii au spus în diverse situații.

Un sistem IA simbolic ar putea pur și simplu să caute unde s-a născut cineva, de exemplu consultând pagina sa de Wikipedia. În schimb, sistemele IA generative absorb întregul Internet, identifică tipare în limbajul uman și încearcă să reconstruiască ceea ce pare plauzibil într-un anumit context.

În termeni semi-tehnici, modelele lingvistice mari sunt predictori ai următoarelor cuvinte, concepuți pentru a optimiza sarcina de a prezice următorul cuvânt dintr-o propoziție, având în vedere cuvintele anterioare.

Halucinațiile sunt, de obicei, lucruri pe care cineva le-ar putea spune într-un anumit context dacă nu știe exact ce se întâmplă.

Și aici e problema. Inteligența artificială generativă este fundamental oarbă în fața a ceea ce reprezintă adevărul și, prin urmare, fundamental nesigură. Activitatea sa – prezicerea cuvintelor și pixelilor într-un anumit context – este doar vag și imperfect corelată cu realitatea.

Calcularea adevărului ar necesita un cadru complet diferit, bazat pe raționament și cunoștințe simbolice explicite (ceva ce dezvoltatorii de rețele neuronale au evitat mereu).

Mulți oameni găsesc greu de acceptat această concluzie. Deoarece LLM-urile sunt atât de bune la imitarea tiparelor din limbajul uman, oamenii tind să le antropomorfizeze – uneori până la punctul în care se îndrăgostesc de ele sau chiar „se căsătoresc” cu ele.

Mult prea frecvent să li se atribuie LLM-urilor o inteligență mult peste ceea ce pot ele de fapt oferi.

În cele din urmă, LLM-urile sunt și vor rămâne prea „proaste” pentru a-și verifica singure răspunsurile. Nu știu că ar trebui să facă asta și nu ar ști cum, chiar dacă ar ști.

Extrase traduse din articolul AI’s Reliability Crisis  de Gary Marcus, profesor emerit de psihologie și neurologie, Universitatea New York, fondator al Robust.AI și Geometric.AI, autor al cărții „Rebooting AI. Building Artificial Intelligence We Can Trust”.

Write comments...
symbols left.
Ești vizitator ( Sign Up ? )
ori postează ca „vizitator”
Loading comment... The comment will be refreshed after 00:00.

Be the first to comment.

Dacă apreciezi articolele SCIENTIA, sprijină site-ul cu o donație!

Cumpără de la eMag și Cărturești și, de asemenea, sprijini scientia.ro.