Noi instrumente de moderare a continutului pe Facebook

Facebook a intampinat testele pilot de noi instrumente si politici de moderare a continutului, dupa ce un audit extern a ridicat numeroase probleme cu abordarea actuala a companiei in abordarea discursului de „ura”.

Intr-un raport publicat de Facebook, auditorii au criticat concentrarea intensa a Facebook pe „obtinerea consecventei in deciziile de revizuire”, pe care au spus ca „se traduce intr-un set mai restrans de politici care sunt mai putin capabile sa controleze nuanta” politia uraste discursul pe platforma.

Politica de interzicere a nationalismului alb este formulata atat de restrins incat nu se aplica tuturor posturilor care se incadreaza in opinia nationalista alba si acopera doar cele care folosesc termenul specific, se spune in raport.

Critica sa asupra politicii care a determinat Facebook sa acorde un numar de extremisti inalt de profil boot-ul la inceputul acestui an este similar: Este, in acelasi timp, prea larg si ciudat specifice, facand dificil de punere in aplicare.

Spre deosebire de criticile anterioare ale strategiei de moderare a continutului Facebook (de care exista multe), aceasta este remarcabila, deoarece vine efectiv din interiorul casei. Raportul publicat duminica a fost realizat de auditori externi numiti de Facebook, iar compania declara ca au contribuit mai mult de 90 de organizatii pentru drepturile civile. Iar amploarea si specificitatea acesteia sugereaza ca auditorii aveau aparent acces fara egal la lucrarile interioare ale unor parti ale companiei care sunt adesea protejate de viziunea publica.

Facebook a fost de acord sa efectueze auditul drepturilor civile in luna mai ca raspuns la afirmatiile potrivit carora discriminarea se face impotriva grupurilor minoritare. (In acelasi timp, Facebook a anuntat o „consiliere partinitoare conservatoare” pentru a aborda preocuparile legate de cenzura.) Raportul a publicat duminica detaliile privind practicile de publicitate vizand publicitatea, alegerile si planurile de recensamant, precum si o structura de responsabilitate civila, moderarea continutului si aplicarea acestuia.

De asemenea, auditul constata ca Facebook testeaza in prezent un nou program care permite moderatorilor sa se „specializeze” in discursurile de ura – ceea ce inseamna ca nu vor mai examina posibile incalcari ale altor politici – in speranta de a imbunatati experienta expertilor in domeniu. Cu toate acestea, dupa cum arata raportul in sine, acest lucru ar putea inrautati conditiile pentru moderatorii deja traumatizati ai companiei.

Vor functiona noile proceduri? Poate ca la unele nivele, dar nu poate fi suficient pentru a opri torrentul namolurilor toxice ale utilizatorilor de Facebook.