Etichetarea datelor
A fost dezvăluit de o investigație a revistei TIME că pentru a construi un sistem de siguranță împotriva conținutului toxic (de exemplu, abuz sexual, violență, rasism, sexism etc.), OpenAI a folosit lucrători externalizați din Kenya care câștigau mai puțin de 2 USD pe oră pentru a eticheta conținutul toxic.Aceste etichete au fost folosite pentru a antrena un model care să detecteze un astfel de conținut în viitor.Muncitorii externalizați au fost expuși la un conținut atât de toxic și periculos încât au descris experiența drept „tortură”.Partenerul de outsourcing al OpenAI a fost Sama, o companie de date de instruire cu sediul în San Francisco, California.
Jailbreaking
ChatGPT încearcă să respingă solicitările care ar putea încălca politica de conținut.Cu toate acestea, unii utilizatori au reușit să facă jailbreak ChatGPT folosind diverse tehnici de inginerie prompte pentru a ocoli aceste restricții la începutul lui decembrie 2022 și l-au păcălit cu succes pe ChatGPT să dea instrucțiuni despre cum să creeze un cocktail Molotov sau o bombă nucleară sau să genereze argumente în stilul unui neo-nazist.Un reporter Toronto Star a avut un succes personal neuniform în a determina ChatGPT să facă declarații inflamatorii la scurt timp după lansare: ChatGPT a fost păcălit să aprobe invazia rusă a Ucrainei din 2022, dar chiar și atunci când i-a fost cerut să joace împreună cu un scenariu fictiv, ChatGPT a refuzat să genereze argumente pentru ce prim-ministrul canadian Justin Trudeau a fost vinovat de trădare.(wiki)
Ora postării: 18-feb-2023