logo
KURIER
Polska reklama i poligrafiaKURIER

Fundamenty odpowiedzialności Youtube (1) - Usuwanie szkodliwych treści

  PR 06.09.2019, przeczytano 295 razy
ilustracja
4 Rs of Responsibility - 4 fundamenty odpowiedzialności

Na przestrzeni ostatnich lat podwoiliśmy wysiłki, aby spełnić oczekiwania użytkowników, co do naszej odpowiedzialności za treści publikowane na platformie, a jednocześnie zachować jej pełną otwartość. Nasza praca skupiła się wokół czterech głównych zasad.


Artykuł pochodzi z portalu Signs.pl: https://www.signs.pl/fundamenty-odpowiedzialnosci-youtube-%281%29---usuwanie-szkodliwych-tresci,383868,artykul.html

W ciągu najbliższych kilku miesięcy przedstawimy nasze działania w ramach każdej z nich. Tym razem skupimy się na pierwszej, czyli Usuwaniu szkodliwych treści. Od samego początku istnienia na YouTube nie było miejsce na niebezpieczne i szkodliwe treści. W ostatnich latach zintensyfikowaliśmy jednak nasze działania i staraliśmy się udoskonalić system usuwania tego typu materiałów. Na poniższej infografice możecie prześledzić najważniejsze udoskonalenia i aktualizacje wprowadzane od 2016 roku. Dzięki nim, w ciągu ostatnich 18 miesięcy zredukowaliśmy o 80% liczbę wyświetleń filmów, które po umieszczeniu zostały usunięte z powodu naruszeń zasad naszej platformy. Nieustannie pracujemy nad tym, aby jeszcze bardziej poprawić ten wynik.

ilustracjastrzałka

Udoskonalanie zasad YouTube

Zanim zdecydujemy się usunąć treści, które naruszają zasady YouTube, zawsze musimy upewnić się, że dobrze wyznaczyliśmy granicę pomiędzy tym, co należy zablokować, a co możemy zaakceptować. Wszystko po to, aby zachować wolność wypowiedzi i jednocześnie wciąż wspomagać prężnie rozwijającą się społeczność. W tym celu nasz dedykowany zespół opracowuje nasze zasady, a także systematycznie dokonuje ich przeglądu, aby mieć pewność, że są one aktualne, zapewniają bezpieczeństwo naszym użytkownikom, a także nie przeciwstawiają się otwartości, która przyświeca YouTube.

Po dokładnym przeanalizowaniu zasad, często dochodzimy do wniosku, że fundamentalne zmiany nie są konieczne. Jednak nadal, zauważamy obszary, które mogą być niejasne lub mylące dla użytkowników. Dlatego wiele aktualizacji stanowi jedynie wyjaśnienie obowiązujących wcześniej wytycznych. Na przykład, na początku tego roku uszczegółowiliśmy zasady dotyczące popularnych „wyzwań” („challenges”), które mogą być niebezpieczne dla użytkowników. Od 2018 r. wprowadziliśmy dziesiątki aktualizacji naszych wytycznych dotyczących egzekwowania zasad, wiele to drobne wyjaśnienia, ale jest też kilka dużo bardziej znaczących.

W przypadku skomplikowanych problemów, na opracowanie nowych wytycznych YouTube poświęcamy nawet kilka miesięcy. W tym czasie konsultujemy się z ekspertami zewnętrznymi oraz twórcami, aby dokładnie zrozumieć, w jaki sposób nasze obecne działania mogą nie spełniać oczekiwań społeczności. Uwzględniamy też wtedy różnice regionalne, aby upewnić się, że proponowane zmiany mogą być stosowane uczciwie na całym świecie.

Jedną z takich znaczących zmian w polityce YouTube, była aktualizacja dotycząca mowy nienawiści. Przed jej wprowadzeniem spędziliśmy z naszym zespołem wiele miesięcy na uważnym opracowywaniu nowych zasad i wspólnej pracy nad szkoleniami i narzędziami, które pomogą nam w ich egzekwowaniu. Od wprowadzenia jej w życie na początku czerwca, nasz zespół sprawdza i usuwa więcej materiałów niezgodnych z nowymi zasadami. Idzie to w parze z coraz lepszym wykrywaniem treści niezgodnych z polityką YouTube przez nasze algorytmy. Oczywiście, udoskonalenie narzędzi do egzekwowania nowych wytycznych może zająć jeszcze trochę czasu. Jednak wpływ aktualizacji dotyczącej mowy nienawiści jest już widoczny w danych opublikowanych w raporcie Egzekwowanie Wytycznych dla społeczności:

ilustracjastrzałka

Gwałtowny wzrost liczby usuniętych materiałów jest spowodowany skasowaniem z platformy komentarzy, filmów i kanałów, których obecność przed aktualizacją była dozwolona. W kwietniu 2019 roku ogłosiliśmy, że pracujemy nad udoskonaleniem zasad dotyczących przeciwdziałania nękaniu, w tym także gnębieniu występującym pomiędzy twórcami. W nadchodzących miesiącach na pewno zaprezentujemy postępy i wyniki naszej pracy.

Algorytmy do wyłapywania szkodliwych treści

Kiedy już wprowadzimy nowe zasady YouTube, zaczynamy polegać zarówno na użytkownikach platformy, jak i na technologii. Dzięki temu oznaczone treści trafiają do zespołów, których zadaniem jest ich sprawdzenie oraz ocena. Czasami używamy tagowania (lub cyfrowych odcisków palców) do przechwytywania kopii znanych materiałów naruszających prawo, zanim zostaną one udostępnione na naszej platformie. W przypadku niektórych treści, takich jak pornografia dziecięca lub filmy o charakterze terrorystycznym, używamy specjalistycznych baz danych z tagami, dzięki czemu nasze maszyny mogą rozpoznać szkodliwe materiały jeszcze w fazie przesyłania na platformę.

W 2017 roku rozwinęliśmy naszą technologię uczenia maszynowego, aby skuteczniej wykrywać treści potencjalnie naruszające zasady, a następnie przekazywać je do oceny przez zespół pracowników. Technologia uczenia maszynowego jest niesamowicie efektywna w rozpoznawaniu materiałów, ponieważ potrafi wychwycić pewne wzorce, które później pomagają nam w znalezieniu materiałów podobnych do tych, które zostały już raz usunięte z serwisu. Algorytmy pomagają nam także w oznaczaniu mowy nienawiści lub innych szkodliwych treści. Należy jednak zaznaczyć, że wydźwięk niektórych treści w dużej mierze zależy od kontekstu, dlatego nieustannie podkreślamy znaczenie oceny naszych pracowników w podejmowaniu zniuansowanych decyzji. Niemniej jednak ponad 87% z 9 milionów wideo, które usunęliśmy w drugim kwartale 2019 roku, w pierwszej kolejności było rozpoznanych i oznaczonych przez nasz automatyczny system.

Dlatego też inwestujemy w zautomatyzowane systemy wykrywania szkodliwych treści, a nasz zespół inżynierów stara się ulepszać je z miesiąca na miesiąc. Wystarczy wspomnieć, że niedawna aktualizacja systemów wykrywania spamu przeprowadzona w drugim kwartale 2019 roku, doprowadziła do wzrostu o ponad 50% liczby usuniętych kanałów z powodu naruszenia naszej polityki dotyczącej spamu.

Usuwanie szkodliwych treści, zanim dotrą do widzów

Dokładamy wszelkich starań, aby szkodliwe treści nie trafiły do szerokiej publiczności i zostały usunięte, zanim zostaną obejrzane przez kogokolwiek. Jak już wspominaliśmy, udoskonalenia w naszym systemie automatycznego oznaczania treści pomogły nam wykryć i sprawdzić wiele materiałów, zanim jeszcze zdążyły zostać zgłoszone jako szkodliwe przez członków społeczności YouTube. W drugim kwartale 2019 roku, ponad 80% automatycznie oznaczonych wideo była usuwana zanim została obejrzana przez nawet jednego użytkownika.

Co więcej, uważamy, że najskuteczniejszą metodą w szybkim usuwaniu szkodliwych treści, jest przewidywanie problemów, zanim w ogóle nastąpią. W styczniu 2018 roku, powołaliśmy zespół Intelligence Desk, który proaktywnie monitoruje pojawiające się informacje, wpisy w mediach społecznościowych, a także raporty użytkowników. Ich zadaniem jest rozpoznanie i zrozumienie schematów i pewnych właściwości, które mogą mieć wpływ na pojawianie się niepożądanych materiałów. Dzięki temu możemy przygotować się na ich pojawienie, zanim nastąpi eskalacja problemu.

W swoich działaniach jesteśmy zdeterminowani, aby jak najbardziej ograniczyć widoczność szkodliwych treści. Właśnie dlatego w Google ponad 10 000 osób pracuje nad wykrywaniem, sprawdzaniem i usuwaniem materiałów, które naruszają nasze zasady. Ze względu na naszą zdolność do szybkiego usuwania tego typu treści, filmy naruszające te zasady stanowią ułamek procenta wyświetleń na YouTube.

Na przykład, prawie 30 000 filmów, które usunęliśmy z powodu mowy nienawiści w ostatnim miesiącu, wygenerowało zaledwie 3% wyświetleń uzyskanych przez filmy dotyczące robienia na drutach w tym samym okresie.

W poprzednim tygodniu zaktualizowaliśmy nasz kwartalny raport dotyczący Egzekwowania Wytycznych dla społeczności, który prezentuje dodatkowe informacje o liczbie materiałów, które usuwamy z YouTube, dlaczego to robimy oraz w jaki sposób je wykrywamy i sprawdzamy. Raport pokazuje także znaczenie technologii, którą wdrożyliśmy w ostatnich latach i która pomogła nam usuwać szkodliwe materiały z YouTube szybciej niż kiedykolwiek wcześniej. Niemniej jednak, znalazły się w nim także dane, które wskazują, że fachowa wiedza zespołu naszych pracowników jest nadal kluczowym elementem w zakresie egzekwowania zasad i wytycznych. To właśnie oni nieustannie pracują nad polityką YouTube, starannym przeglądem zamieszczanych treści i efektywnym wdrażaniem technologii uczenia maszynowego.

Źródło: Zespół YouTube

www.polska.googleblog.com

PR - Tekst opublikowany bezpłatnie na podstawie promocyjnych materiałów prasowych. Redakcja nie odpowiada za jego treść.

REKLAMA

Komentarze

Zaloguj się i dodaj komentarz

Najnowsze w tym dziale

SalesTube, agencja one stop shop dla e-commerce (Group One), została pierwszą firmą w CEE i jedną z 12 na świecie z certyfikatem Google Marketing Platform Surveys. Wyróżnienie potwierdza najwyższe kompetencje agencji zarówno w zakresie Google Marketing Platform jak i w obszarze analityczno-badawczym.
Zdaje się, że Google prowadzi walkę z wiatrakami. Android, czyli system mobilny giganta z Kalifornii jest najpopularniejszym oprogramowaniem na świecie. Na ten system powstają miliony aplikacji, a wśród nich znajdą się takie, które nie tylko są niebezpieczne dla urządzeń, ale przede wszystkim dla danych użytkowników. W 2019 roku Google zablokowało ponad 790...
Cathy Ibal z CNN International Commercial awansuje na stanowisko Senior Vice President na region EMEA
Cathy Ibal z CNN International Commercial (CNNIC) objęła stanowisko Senior Vice President na region Europy, Bliskiego Wschodu i Afryki (EMEA) i będzie odpowiedzialna za komercyjną współpracę stacji z kluczowymi partnerami. Z siedziby w Paryżu będzie raportowała prezesowi CNNIC, Raniemu Raadowi.
Wyniki badania Gemius/PBI za styczeń 2020
Poniżej prezentujemy Państwu najnowsze wyniki badania Gemius/PBI. Tabele prezentują zarówno rankingi wydawców internetowych, zestawienie najpopularniejszych domen oraz aplikacji mobilnych.
Yieldbird pracuje nad systemem sprzedaży powierzchni reklamowych
Zespół firmy Yieldbird z Grupy Agora pracuje nad stworzeniem rozwiązania, które pomoże właścicielom serwisów internetowych w poprawie efektywności zarządzania posiadaną przez nich powierzchnią reklamową. Spółka otrzymała na działania związane z tym innowacyjnym projektem grant w wysokości 3,6 mln zł z Narodowego Centrum Badań i Rozwoju w ramach programu „Inteligentny...
 
Signs.pl - Polska Reklama i Poligrafia © 1997-2020 ICOSWszystkie prawa zastrzeżone. ISSN 2657-4764