YouTube e eliminat conținut dăunător încă de la început, însă eforturile în această direcție s-au accelerat în ultimii ani, în principal prin actualizarea regulilor pe care comunitatea trebuie să le respecte, îmbunătățirea instrucțiunilor, introducerea sistemelor „machine learning”, dezvoltarea de echipe care să analizeze conținutul sau de programe dedicate în parteneriat cu diferite organizații. Numai în anul 2018, YouTube a făcut peste 30 de schimbări în politicile care guvernează platforma.
Ca rezultat, în al doilea trimestru al lui 2019, YouTube a eliminat peste 4 milioane de canale și 9 milioane de videouri pentru că încălcarea regulilor comunității. La finalul lunii august, YouTube a publicat raportul trimestrial privind conținutul eliminat de pe platformă (Q2 2019), care oferă informații asupra volumului de conținut îndepărtat, de ce și când a fost șters.
Înainte de a elimina conținut, trebuie ca acea linie între ce este acceptat și ce se șterge să fie trasată unde trebuie. Obiectivul este de a asigura libertatea de expresie, și în același timp protejarea și susținerea comunității de pe YouTube. Cu acest scop, YouTube are o echipă de dezvoltare a politicilor comunității, care le analizează constant pentru a se asigura că ele sunt la zi, mențin comunitatea în siguranță și nu îngrădesc gradul de libertate al YouTube.
Nu întotdeauna este nevoie de noi politici. Uneori se fac doar unele clarificări. Un astfel de exemplu a fost la începutul lui 2019, când YouTube a publicat mai multe detalii legate de când consideră că videourile de tip provocare sunt prea periculoase pentru YouTube. Video-urile cu provocări au luat o mare amploare, și era nevoie de o clarificare privind limitele lor.
În alte cazuri complexe, echipa de analiză poate petrece mai multe luni de zile pentru dezvoltarea unei noi reguli. Acest lucru se face consultând experți externi și creatori de conținut de pe YouTube, pentru a vedea unde actualele reguli își arată limitele, care sunt particularitățile din diferitele regiuni ale lumii, astfel încât schimbările propuse să fie aplicate în mod echitabil la nivel global.
O astfel de schimbare fundamentală a fost actualizarea adusă politicilor privind instigarea la ură (hate speech). Modificarea lor a durat luni, iar noul set de politici a fost lansat la începutul lunii iunie 2019. Impactul noului set de politici privind instigarea la ură s-a văzut în trimestru al doilea din 2019:
● Peste 100.000 video-uri eliminate, reprezentând o creștere de 5 ori
● Numărul de canale șterse pe motiv de „hate speech” a crescut de 5 ori, la peste 17.000
● Numărul de comentarii eliminate de pe YouTube aproape s-a dublat în Q2 2019, la peste 500 milioane, în parte datorită ștergerii de comentarii „hate speech”
Machine learning vs. conținut nociv
YouTube se bazează pe o combinație de oameni și tehnologie pentru a marca conținutul care urmează să fie analizat. În unele cazuri sunt utilizate „amprente digitale” pentru a găsi copii ale conținutului nepotrivit, înainte de fi vizionat. Pentru anumit tip de conținut, precum abuzuri sexuale împotriva copiilor sau terorism, YouTube contribuie într-o bază de date a industriei de conținut, pentru a crește șansele ca acest tip de conținut să fie blocat înainte de încărcare.
În 2017, YouTube a extins utilizarea tehnologiei machine learning în detectarea conținutului potențial nepotrivit, trimit apoi pentru analiza umană. Această tehnologie este potrivită pentru a detecta modele, ceea ce ajută în găsirea conținutului similar – dar nu exact la fel – cu alt conținut deja eliminat, chiar înainte ca acesta să fie vizionat de utilizatori. Astfel, peste 87% dintre cele 9 milioane de video-uri eliminate în al doilea semestru din 2019 au fost inițial identificate de sistemele automate ale YouTube. Un update al sistemelor de detecție automată a spamului în al doilea trimestru din 2019 a dus la o creștere cu 50% a numărului de canale șterse pentru încălcarea regulilor privind spamul.
Eliminarea conținutului înainte de a fi vizionat
În tot acest efort de eliminare a conținutului care încalcă regulile, un aspect important este ca videourile de acest fel să nu fie vizionate pe scară largă sau chiar deloc, înainte de a fi eliminate. Aici elementul critic este sistemul automatizat de alertare, care a ajutat la detectarea și evaluarea a conținutului înainte de a fi semnalizat de comunitate. În consecință, peste 80% dintre conținutul semnalizat de sistemele automatizare a fost eliminat înainte de a primi o singură vizualizare, în al doilea trimestru al lui 2019.
Anticiparea unor unor probleme înainte de apariția lor este importantă. Cu acest scop, YouTube a lansat la începutul lui 2018 Intelligence Desk, o echipă care monitorizează știrile, social media și rapoartele utilizatorilor pentru a detecta noi trenduri în zona conținutului inadecvat. Google a angajat peste 10.000 de oameni pentru detectarea, analiza și eliminarea conținutului care încalcă politicile YouTube.