logo
KURIER
Polska reklama i poligrafiaKURIER

Fundamenty odpowiedzialności Youtube (1) - Usuwanie szkodliwych treści

  PR 06.09.2019, przeczytano 788 razy
ilustracja
4 Rs of Responsibility - 4 fundamenty odpowiedzialności

Na przestrzeni ostatnich lat podwoiliśmy wysiłki, aby spełnić oczekiwania użytkowników, co do naszej odpowiedzialności za treści publikowane na platformie, a jednocześnie zachować jej pełną otwartość. Nasza praca skupiła się wokół czterech głównych zasad.


Artykuł pochodzi z portalu Signs.pl: https://www.signs.pl/fundamenty-odpowiedzialnosci-youtube-%281%29---usuwanie-szkodliwych-tresci,383868,artykul.html

W ciągu najbliższych kilku miesięcy przedstawimy nasze działania w ramach każdej z nich. Tym razem skupimy się na pierwszej, czyli Usuwaniu szkodliwych treści. Od samego początku istnienia na YouTube nie było miejsce na niebezpieczne i szkodliwe treści. W ostatnich latach zintensyfikowaliśmy jednak nasze działania i staraliśmy się udoskonalić system usuwania tego typu materiałów. Na poniższej infografice możecie prześledzić najważniejsze udoskonalenia i aktualizacje wprowadzane od 2016 roku. Dzięki nim, w ciągu ostatnich 18 miesięcy zredukowaliśmy o 80% liczbę wyświetleń filmów, które po umieszczeniu zostały usunięte z powodu naruszeń zasad naszej platformy. Nieustannie pracujemy nad tym, aby jeszcze bardziej poprawić ten wynik.

ilustracjastrzałka

Udoskonalanie zasad YouTube

Zanim zdecydujemy się usunąć treści, które naruszają zasady YouTube, zawsze musimy upewnić się, że dobrze wyznaczyliśmy granicę pomiędzy tym, co należy zablokować, a co możemy zaakceptować. Wszystko po to, aby zachować wolność wypowiedzi i jednocześnie wciąż wspomagać prężnie rozwijającą się społeczność. W tym celu nasz dedykowany zespół opracowuje nasze zasady, a także systematycznie dokonuje ich przeglądu, aby mieć pewność, że są one aktualne, zapewniają bezpieczeństwo naszym użytkownikom, a także nie przeciwstawiają się otwartości, która przyświeca YouTube.

Po dokładnym przeanalizowaniu zasad, często dochodzimy do wniosku, że fundamentalne zmiany nie są konieczne. Jednak nadal, zauważamy obszary, które mogą być niejasne lub mylące dla użytkowników. Dlatego wiele aktualizacji stanowi jedynie wyjaśnienie obowiązujących wcześniej wytycznych. Na przykład, na początku tego roku uszczegółowiliśmy zasady dotyczące popularnych „wyzwań” („challenges”), które mogą być niebezpieczne dla użytkowników. Od 2018 r. wprowadziliśmy dziesiątki aktualizacji naszych wytycznych dotyczących egzekwowania zasad, wiele to drobne wyjaśnienia, ale jest też kilka dużo bardziej znaczących.

W przypadku skomplikowanych problemów, na opracowanie nowych wytycznych YouTube poświęcamy nawet kilka miesięcy. W tym czasie konsultujemy się z ekspertami zewnętrznymi oraz twórcami, aby dokładnie zrozumieć, w jaki sposób nasze obecne działania mogą nie spełniać oczekiwań społeczności. Uwzględniamy też wtedy różnice regionalne, aby upewnić się, że proponowane zmiany mogą być stosowane uczciwie na całym świecie.

Jedną z takich znaczących zmian w polityce YouTube, była aktualizacja dotycząca mowy nienawiści. Przed jej wprowadzeniem spędziliśmy z naszym zespołem wiele miesięcy na uważnym opracowywaniu nowych zasad i wspólnej pracy nad szkoleniami i narzędziami, które pomogą nam w ich egzekwowaniu. Od wprowadzenia jej w życie na początku czerwca, nasz zespół sprawdza i usuwa więcej materiałów niezgodnych z nowymi zasadami. Idzie to w parze z coraz lepszym wykrywaniem treści niezgodnych z polityką YouTube przez nasze algorytmy. Oczywiście, udoskonalenie narzędzi do egzekwowania nowych wytycznych może zająć jeszcze trochę czasu. Jednak wpływ aktualizacji dotyczącej mowy nienawiści jest już widoczny w danych opublikowanych w raporcie Egzekwowanie Wytycznych dla społeczności:

ilustracjastrzałka

Gwałtowny wzrost liczby usuniętych materiałów jest spowodowany skasowaniem z platformy komentarzy, filmów i kanałów, których obecność przed aktualizacją była dozwolona. W kwietniu 2019 roku ogłosiliśmy, że pracujemy nad udoskonaleniem zasad dotyczących przeciwdziałania nękaniu, w tym także gnębieniu występującym pomiędzy twórcami. W nadchodzących miesiącach na pewno zaprezentujemy postępy i wyniki naszej pracy.

Algorytmy do wyłapywania szkodliwych treści

Kiedy już wprowadzimy nowe zasady YouTube, zaczynamy polegać zarówno na użytkownikach platformy, jak i na technologii. Dzięki temu oznaczone treści trafiają do zespołów, których zadaniem jest ich sprawdzenie oraz ocena. Czasami używamy tagowania (lub cyfrowych odcisków palców) do przechwytywania kopii znanych materiałów naruszających prawo, zanim zostaną one udostępnione na naszej platformie. W przypadku niektórych treści, takich jak pornografia dziecięca lub filmy o charakterze terrorystycznym, używamy specjalistycznych baz danych z tagami, dzięki czemu nasze maszyny mogą rozpoznać szkodliwe materiały jeszcze w fazie przesyłania na platformę.

W 2017 roku rozwinęliśmy naszą technologię uczenia maszynowego, aby skuteczniej wykrywać treści potencjalnie naruszające zasady, a następnie przekazywać je do oceny przez zespół pracowników. Technologia uczenia maszynowego jest niesamowicie efektywna w rozpoznawaniu materiałów, ponieważ potrafi wychwycić pewne wzorce, które później pomagają nam w znalezieniu materiałów podobnych do tych, które zostały już raz usunięte z serwisu. Algorytmy pomagają nam także w oznaczaniu mowy nienawiści lub innych szkodliwych treści. Należy jednak zaznaczyć, że wydźwięk niektórych treści w dużej mierze zależy od kontekstu, dlatego nieustannie podkreślamy znaczenie oceny naszych pracowników w podejmowaniu zniuansowanych decyzji. Niemniej jednak ponad 87% z 9 milionów wideo, które usunęliśmy w drugim kwartale 2019 roku, w pierwszej kolejności było rozpoznanych i oznaczonych przez nasz automatyczny system.

Dlatego też inwestujemy w zautomatyzowane systemy wykrywania szkodliwych treści, a nasz zespół inżynierów stara się ulepszać je z miesiąca na miesiąc. Wystarczy wspomnieć, że niedawna aktualizacja systemów wykrywania spamu przeprowadzona w drugim kwartale 2019 roku, doprowadziła do wzrostu o ponad 50% liczby usuniętych kanałów z powodu naruszenia naszej polityki dotyczącej spamu.

Usuwanie szkodliwych treści, zanim dotrą do widzów

Dokładamy wszelkich starań, aby szkodliwe treści nie trafiły do szerokiej publiczności i zostały usunięte, zanim zostaną obejrzane przez kogokolwiek. Jak już wspominaliśmy, udoskonalenia w naszym systemie automatycznego oznaczania treści pomogły nam wykryć i sprawdzić wiele materiałów, zanim jeszcze zdążyły zostać zgłoszone jako szkodliwe przez członków społeczności YouTube. W drugim kwartale 2019 roku, ponad 80% automatycznie oznaczonych wideo była usuwana zanim została obejrzana przez nawet jednego użytkownika.

Co więcej, uważamy, że najskuteczniejszą metodą w szybkim usuwaniu szkodliwych treści, jest przewidywanie problemów, zanim w ogóle nastąpią. W styczniu 2018 roku, powołaliśmy zespół Intelligence Desk, który proaktywnie monitoruje pojawiające się informacje, wpisy w mediach społecznościowych, a także raporty użytkowników. Ich zadaniem jest rozpoznanie i zrozumienie schematów i pewnych właściwości, które mogą mieć wpływ na pojawianie się niepożądanych materiałów. Dzięki temu możemy przygotować się na ich pojawienie, zanim nastąpi eskalacja problemu.

W swoich działaniach jesteśmy zdeterminowani, aby jak najbardziej ograniczyć widoczność szkodliwych treści. Właśnie dlatego w Google ponad 10 000 osób pracuje nad wykrywaniem, sprawdzaniem i usuwaniem materiałów, które naruszają nasze zasady. Ze względu na naszą zdolność do szybkiego usuwania tego typu treści, filmy naruszające te zasady stanowią ułamek procenta wyświetleń na YouTube.

Na przykład, prawie 30 000 filmów, które usunęliśmy z powodu mowy nienawiści w ostatnim miesiącu, wygenerowało zaledwie 3% wyświetleń uzyskanych przez filmy dotyczące robienia na drutach w tym samym okresie.

W poprzednim tygodniu zaktualizowaliśmy nasz kwartalny raport dotyczący Egzekwowania Wytycznych dla społeczności, który prezentuje dodatkowe informacje o liczbie materiałów, które usuwamy z YouTube, dlaczego to robimy oraz w jaki sposób je wykrywamy i sprawdzamy. Raport pokazuje także znaczenie technologii, którą wdrożyliśmy w ostatnich latach i która pomogła nam usuwać szkodliwe materiały z YouTube szybciej niż kiedykolwiek wcześniej. Niemniej jednak, znalazły się w nim także dane, które wskazują, że fachowa wiedza zespołu naszych pracowników jest nadal kluczowym elementem w zakresie egzekwowania zasad i wytycznych. To właśnie oni nieustannie pracują nad polityką YouTube, starannym przeglądem zamieszczanych treści i efektywnym wdrażaniem technologii uczenia maszynowego.

Źródło: Zespół YouTube

www.polska.googleblog.com

PR - Tekst opublikowany bezpłatnie na podstawie promocyjnych materiałów prasowych. Redakcja nie odpowiada za jego treść.

REKLAMA

Komentarze

Zaloguj się i dodaj komentarz

Najnowsze w tym dziale

DoubleVerify, platforma software’owa zajmująca się pomiarami i analizami danych dotyczących mediów digital, ogłosiła wprowadzenie 16 nowych kategorii z obszaru Brand Safety i Suitability dla reklamodawców na TikToku, aby wspierać nowe filtry zasobów reklamowych tej platformy: Vertical Sensitivity oraz Category Exclusion, które zostaną uruchomione...
TVN Warner Bros. Discovery z nagrodami World Media Festivals 2024
Dziewięć złotych i pięć srebrnych nagród trafiło do dziennikarzy oraz tytułów TVN Warner Bros. Discovery na World Media Festivals w Hamburgu. Wśród laureatów znalazły się między innymi reportaże dziennikarzy "Czarno na białym" i "Superwizjera" TVN.
WP Ads to self-service Wirtualnej Polski, który pozwala klientom na samodzielne zarządzanie kampaniami reklamowymi. Ostatnio został wzbogacony o możliwość dodawania kampanii wideo w materiałach publikowanych w serwisach internetowych. Obecnie w WP Ads zarejestrowanych jest już 1500 klientów.
Oktogram: gra karciana kontra dezinformacja i clickbaity
Każdego dnia spada na każdego z nas ogrom informacji i chyba nikt już nie jest w stanie ustrzec się przed manipulacją, fake newsami, udostępnianiem dalej nieprawdziwych treści. Jak nie dać się nieustannie wkręcać? Okazuje się, że odpowiedzią jest odpowiednia praca z emocjami, a dobra wiadomość jest taka, że można to wytrenować w całkiem przyjemny sposób m.in. grając...
SkyShowtime i Paramount: wyłączne partnerstwo w sprzedaży reklam
SkyShowtime i Paramount Advertising International ogłosiły dziś zawarcie umowy na wyłączność, na mocy której Paramount zajmie się sprzedażą reklam w serwisie SkyShowtime na wszystkich rynkach, na których platforma jest dostępna. Dzięki temu partnerstwu SkyShowtime i Paramount zapewnią wiodącym reklamodawcom dostęp do najwyższej jakości usług reklamowych na ponad...
 
Signs.pl - Polska Reklama i Poligrafia © 1997-2024 ICOSWszystkie prawa zastrzeżone. ISSN 2657-4764