Noile versiuni ale softurilor de IA de tip LLM, care vin cu opțiunea „raționează”, dezvoltate de marile companii de tehnologie, produc informații incorecte tot mai frecvent. Nici măcar companiile nu știu de ce.

Cele mai noi și mai puternice tehnologii, așa-numitele sisteme care raționează, dezvoltate de companii precum OpenAI, Google sau DeepSeek — generează mai multe erori, nu mai puține. Deși abilitățile lor matematice s-au îmbunătățit considerabil, stăpânirea faptelor a devenit mai nesigură. Nu este clar de ce.

Boții de inteligență artificială de astăzi se bazează pe sisteme matematice complexe care își dezvoltă abilitățile analizând cantități uriașe de date digitale. Ei nu pot și nici nu au capacitatea să decidă ce este adevărat și ce este fals. Uneori pur și simplu inventează lucruri, un fenomen pe care unii cercetători în domeniul A.I. îl numesc halucinații. La un test, ratele de halucinație ale unor sisteme de IA mai noi au ajuns până la 79%.

Aceste sisteme folosesc probabilități matematice pentru a ghici cel mai bun răspuns, nu un set strict de reguli definite de ingineri umani. Prin urmare, fac un anumit număr de greșeli. „În ciuda tuturor eforturilor noastre, ele vor halucina întotdeauna”, crede Amr Awadallah, director executiv al Vectara, un start-up care dezvoltă softuri bazate pe IA pentru afaceri și fost director la Google.

-- Citește șiChatGPT nu poate gândi

Sursa: NYTimes

Write comments...
symbols left.
Ești vizitator ( Sign Up ? )
ori postează ca „vizitator”
Loading comment... The comment will be refreshed after 00:00.

Be the first to comment.

Dacă apreciezi articolele SCIENTIA, sprijină site-ul cu o donație!

Cumpără de la eMag și Cărturești și, de asemenea, sprijini scientia.ro.