În lumea în continuă evoluție a inteligenței artificiale, OpenAI a făcut un pas semnificativ înainte cu dezvoltarea lui CriticGPT, un model bazat pe GPT-4, conceput pentru a identifica și a critica erorile din răspunsurile generate de ChatGPT. Acest nou model reprezintă un efort de a îmbunătăți procesul de „Reinforcement Learning from Human Feedback” (RLHF), care este esențial pentru alinierea modelelor AI cu nevoile și așteptările umane.
CriticGPT a fost antrenat să recunoască greșelile inserate manual de formatorii AI în codul generat de ChatGPT și să ofere feedback exemplificativ, ca și cum ar fi detectat bug-ul inserat. Acest proces ajută la creșterea acurateței și la reducerea „halucinațiilor” – răspunsuri incorecte sau irelevante generate de model. În experimentele efectuate, s-a constatat că formatorii umani care au folosit CriticGPT pentru a revizui codul ChatGPT au avut performanțe superioare cu 60% față de cei care nu au avut asistență AI.
Avansul reprezentat de CriticGPT subliniază importanța colaborării dintre oameni și AI în procesul de învățare și îmbunătățire continuă. Pe măsură ce modelele AI devin mai sofisticate și capabile să genereze răspunsuri mai precise și mai subtile, devine tot mai dificil pentru formatorii umani să identifice inexactitățile. CriticGPT vine în sprijinul acestora, oferind o perspectivă suplimentară și îmbunătățind calitatea feedback-ului.
Această inițiativă marchează un pas important în direcția evaluării și îmbunătățirii performanței modelelor AI avansate, care pot fi dificil de evaluat fără unelte adecvate. Deschiderea către un astfel de model critic este un exemplu de cum OpenAI își propune să construiască sisteme AI mai sigure și mai aliniate cu valorile umane.
Pentru mai multe detalii despre CriticGPT și progresul înregistrat de OpenAI în domeniul inteligenței artificiale, puteți accesa acest link.