
OpenAI a anunțat recent că prin „agentul ChatGPT”, „ChatGPT acum gândește și acționează, alegând în mod proactiv dintr-un set de abilități pentru a îndeplini sarcini în locul tău, folosindu-și propriul calculator”.
La baza acestei noi capabilități se află un sistem unificat. Acesta reunește trei puncte forte ale inovațiilor anterioare: capacitatea Operatorului de a interacționa cu site-uri web, abilitatea Deep Research de a sintetiza informații și inteligența și fluența conversațională ale ChatGPT.
Directorul executiv al OpenAI, Sam Altman, a publicat un amplu mesaj pe contul său de X, în care menționează:
„Astăzi am lansat un nou produs numit „ChatGPT Agent”.
Agentul reprezintă un nou nivel de capabilitate pentru sistemele de inteligență artificială și poate îndeplini pentru tine sarcini remarcabile și complexe folosindu-și propriul calculator. Combină spiritul Deep Research și Operator, dar este mai puternic decât sugerează această descriere — poate să gândească timp îndelungat, să folosească unele unelte, să mai gândească, să ia decizii, să mai reflecteze, și tot așa.
De exemplu, în timpul lansării am prezentat o demonstrație despre cum se poate pregăti pentru nunta unui prieten: cumpărând o ținută, rezervând călătoria, alegând un cadou etc. De asemenea, am arătat un exemplu de analizare a unor date și creare a unei prezentări pentru muncă.
Deși utilitatea este semnificativă, la fel sunt și riscurile potențiale.
Am integrat numeroase măsuri de protecție și avertismente, precum și mecanisme de atenuare mai ample decât am dezvoltat vreodată până acum — de la antrenamente, la protecții la nivel de sistem și opțiuni de control pentru utilizator — dar nu putem anticipa totul.
În spiritul unei lansări graduale, vom avertiza intens utilizatorii și le vom oferi libertatea de a acționa cu prudență, dacă aleg să o facă.
Aș explica familiei mele că este o tehnologie de vârf, experimentală; o oportunitate de a testa viitorul, dar nu ceva ce aș folosi deja pentru sarcini de mare importanță sau care implică multe informații personale, până când vom avea ocazia să o studiem și îmbunătățim în condiții reale.
Nu știm exact care vor fi efectele, dar persoane rău intenționate ar putea încerca să „păcălească” agenții IA ai utilizatorilor pentru a divulga informații private sau a efectua acțiuni nepermise, în moduri pe care nu le putem anticipa.
Recomandăm să le oferiți agenților doar accesul minim necesar pentru a finaliza o sarcină, pentru a reduce riscurile legate de confidențialitate și securitate.
De exemplu, pot oferi agentului acces la calendarul meu pentru a găsi o oră potrivită pentru o cină în grup. Dar nu e nevoie să-i ofer niciun acces dacă doar îi cer să-mi cumpere niște haine.
Există un risc mai mare în sarcini de tipul „Uită-te peste emailurile primite peste noapte și fă tot ce trebuie pentru a le rezolva, fără să-mi pui întrebări suplimentare”. Asta ar putea duce la conținut periculos dintr-un email nociv, care să păcălească modelul și să ducă la scurgeri de date.
Considerăm important să începem să învățăm prin contact direct cu realitatea și ca oamenii să adopte aceste unelte cu grijă și treptat, pe măsură ce înțelegem mai bine și atenuăm riscurile potențiale implicate. Asemenea altor niveluri noi de capabilitate, societatea, tehnologia și strategiile de reducere a riscurilor vor trebui să evolueze împreună”.
