ChatGPT este un instrument care utilizează IA și învățarea automată (ML) pentru a oferi utilizatorilor răspunsuri ca urmare a antrenării acestuia cu seturi mari de date. Cu toate acestea, ca în cazul oricărei tehnologii noi, există o parte bună și una rea. Din păcate, în ultima perioadă, partea rea a ChatGPT poate fi regăsită din ce în ce mai des în mediul online și presupune o creștere a abuzurilor, instrumentul fiind utilizat într-un mod greșit.
Mesajele de eroare pe care ChatGPT și alte modele lingvistice de inteligență artificială le generează pot fi folosite pentru a descoperi campanii de dezinformare, discursuri de ură și recenzii false prin intermediul colectării și analizei OSINT (Open-Source Intelligence), conform unui ghid lansat de ShadowDragon[1].
Mesaje de eroare generate de IA
Mesajele de eroare sunt o formă de avertizare pe care utilizatorii le-au întâlnit cel mai probabil atunci când au făcut o greșeală. Din perspectiva OSINT, pot fi utilizate aceste mesaje de eroare pentru a identifica/ monitoriza conținutul generat de IA care ar putea răspândii informații false sau discursuri instigatoare la ură. Prin monitorizarea acestor mesaje de eroare pot fi identificate tipare în conținutul generat de modelele de limbaj. În acest fel, pot fi detectate eventuale conturi false, campanii de dezinformare și narațiuni specifice.
Câteva exemple de mesaje de eroare cunoscute pe care ChatGPT și alte limbaje IA le pot genera includ (Aceasta este o listă neexhaustivă și într-o continuă modificare):
- As an AI language model;
- Not a recognized word;
- Cannot provide a phrase;
- With the given words;
- Violates OpenAI’s content policy;
- I’m sorry, I cannot generate
- The message you submitted;
- An error occurred. If this issue persists please contact us through our help center at;
- Something went wrong, please try reloading the conversations;
- I’m sorry, I cannot generate inappropriate or offensive content;
- This phrase is vulgar and offensive. As an AI language model, I do not endorse or condone the use of derogatory language.
Aceste mesaje de eroare pot părea inofensive la prima vedere, dar ele pot servi drept semnale de alarmă importante pentru un conținut potențial dăunător.
Descoperirea conținutului generat de IA folosind OSINT
Astfel, din perspectiva OSINT, pot fi utilizate mesajele de eroare menționate anterior pentru efectuarea de verificări folosind motoarele de căutare, respectiv funcțiile de regăsire din cadrul platformelor/ rețelelor sociale de interes.
De asemenea, pot fi create expresii de tip ”dorks” care aplicate în motoarele de căutare ajută la rafinarea rezultatelor obținute, pornind de la:
”nume expresie”
Aceasta poate fi completată cu elemente de genul:
- Site: numesite.ltd – afișarea rezultatelor indexate din cadrul site-ului web numesite.ltd;
- Inurl:post – expresia regăsită trebuie să fie parte dintr-un URL și de tip postare;
Exemplu: ”As an AI language model” inurl:www.instagram.com/p
Aceste mesaje de eroare sunt relativ ușor de reparat, iar utilizatorii familiarizați cu tehnologia vor fi capabili să recunoască relativ repede că este vorba de conținut generat de IA.
Atenție la limba în care sunt livrate rezultatele căutărilor
Întreaga listă de mesaje de eroare în limba engleză poate fi tradusă în orice limbă în care ChatGPT este capabil să genereze răspunsuri. În prezent, ChatGPT poate elabora răspunsuri în următoarele limbi: arabă, bengaleză, chineză, olandeză, franceză, germană, greacă, ebraică, hindi, indoneziană, italiană, japoneză, coreeană, poloneză, portugheză, rusă, spaniolă, suedeză, thailandeză, turcă și vietnameză.
Utilizarea inteligenței artificiale în scopuri tău intenționate
Disponibilitatea madelelor lingvistice de inteligență artificială a condus la folosirea acestora în scopuri rău intenționate sau ne-etice: plagiat, manipularea comportamentului uman, scrierea de programe malware, etc.
Răspândirea dezinformării este o activitate deosebit de dăunătoare, cu scopul final de a manipula oamenii prin intermediul unor informații false sau înșelătoare, iar modelele bazate pe inteligență artificială sunt instrumentul perfect pentru a crea texte, imagini sau videoclipuri convingătoare.
Capacitatea de a detecta aceste campanii va fi crucială pentru a le demasca, iar dezvoltatorii aplicațiilor de IA și ML au responsabilitatea de a se asigura că tehnologia lor nu este utilizată pentru a răspândi dezinformare sau pentru a crea recenzii false. Acest lucru poate fi realizat prin implementarea unor măsuri de protecție și algoritmi care pot detecta și preveni crearea de deepfakes sau de conturi/ recenzii false.
Desigur, nu toate campaniile de dezinformare, discursurile care propagă ură sau recenziile false sunt alimentate de instrumente de inteligență artificială – și acestea vor fi în continuare dificil de depistat.
[1] https://info.shadowdragon.io/hubfs/SD_APracticalGuide_WhitePaper-1.pdf