OpenAI închide o operațiune iraniană care utiliza ChatGPT pentru a influența alegerile din SUA

AI News

În lumina recentelor evenimente, OpenAI a luat măsuri decisive pentru a perturba o operațiune de influență iraniană ascunsă, cunoscută sub numele de Storm-2035. Această operațiune a utilizat ChatGPT pentru a genera conținut axat pe mai multe subiecte, inclusiv campania prezidențială din SUA. OpenAI și-a reafirmat angajamentul de a preveni abuzul și de a îmbunătăți transparența în jurul conținutului generat de AI.

Această acțiune face parte dintr-un efort mai larg de a detecta și opri operațiunile de influență ascunse (IO), care încearcă să manipuleze opinia publică sau să influențeze rezultatele politice, ascunzând adevărata identitate sau intențiile actorilor din spatele lor. Acest lucru este deosebit de important în contextul numeroaselor alegeri care au loc în 2024. OpenAI și-a extins activitatea în acest domeniu pe parcursul anului, inclusiv prin utilizarea propriilor modele AI pentru a detecta și înțelege mai bine abuzul.

Investigația a beneficiat de informații despre operațiune publicate de Microsoft săptămâna trecută. Investigația a dezvăluit că această operațiune a folosit ChatGPT pentru două scopuri: generarea de articole pe termen lung și comentarii mai scurte pe rețelele sociale. Prima linie de lucru a produs articole despre politica SUA și evenimente globale, publicate pe cinci site-uri web care se prezentau ca surse de știri progresiste și conservatoare. A doua linie de lucru a creat comentarii scurte în engleză și spaniolă, care au fost postate pe rețelele sociale.

Această operațiune nu pare să fi atins un angajament semnificativ din partea audienței. Majoritatea postărilor de pe rețelele sociale identificate au primit puține sau deloc aprecieri, distribuiri sau comentarii. De asemenea, nu s-au găsit indicii că articolele web au fost distribuite pe scară largă pe rețelele sociale. Utilizând Scala Breakout a Brookings, care evaluează impactul IO ascunse pe o scară de la 1 (cel mai scăzut) la 6 (cel mai înalt), această operațiune a fost la capătul inferior al Categoriei 2 (activitate pe mai multe platforme, dar fără dovezi că conținutul lor a fost preluat sau distribuit pe scară largă de persoane reale).

OpenAI continuă să monitorizeze orice alte încercări de a încălca politicile sale și este dedicată prevenirii abuzului de conținut generat de AI. Această situație subliniază importanța colaborării între industrie, societatea civilă și guvern pentru a combate crearea, distribuția și impactul conținutului IO. Raportarea detaliată a amenințărilor de-a lungul anilor de către platformele de distribuție și comunitatea open-source a făcut posibile investigațiile și perturbările.

Pentru mai multe informații despre această operațiune de influență și măsurile luate de OpenAI, puteți accesa articolul complet aici.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *