logo
KURIER
Polska reklama i poligrafiaKURIER

Fundamenty odpowiedzialności Youtube (1) - Usuwanie szkodliwych treści

  PR 06.09.2019, przeczytano 222 razy
ilustracja
4 Rs of Responsibility - 4 fundamenty odpowiedzialności

Na przestrzeni ostatnich lat podwoiliśmy wysiłki, aby spełnić oczekiwania użytkowników, co do naszej odpowiedzialności za treści publikowane na platformie, a jednocześnie zachować jej pełną otwartość. Nasza praca skupiła się wokół czterech głównych zasad.


Artykuł pochodzi z portalu Signs.pl: https://www.signs.pl/fundamenty-odpowiedzialnosci-youtube-%281%29---usuwanie-szkodliwych-tresci,383868,artykul.html

W ciągu najbliższych kilku miesięcy przedstawimy nasze działania w ramach każdej z nich. Tym razem skupimy się na pierwszej, czyli Usuwaniu szkodliwych treści. Od samego początku istnienia na YouTube nie było miejsce na niebezpieczne i szkodliwe treści. W ostatnich latach zintensyfikowaliśmy jednak nasze działania i staraliśmy się udoskonalić system usuwania tego typu materiałów. Na poniższej infografice możecie prześledzić najważniejsze udoskonalenia i aktualizacje wprowadzane od 2016 roku. Dzięki nim, w ciągu ostatnich 18 miesięcy zredukowaliśmy o 80% liczbę wyświetleń filmów, które po umieszczeniu zostały usunięte z powodu naruszeń zasad naszej platformy. Nieustannie pracujemy nad tym, aby jeszcze bardziej poprawić ten wynik.

ilustracjastrzałka

Udoskonalanie zasad YouTube

Zanim zdecydujemy się usunąć treści, które naruszają zasady YouTube, zawsze musimy upewnić się, że dobrze wyznaczyliśmy granicę pomiędzy tym, co należy zablokować, a co możemy zaakceptować. Wszystko po to, aby zachować wolność wypowiedzi i jednocześnie wciąż wspomagać prężnie rozwijającą się społeczność. W tym celu nasz dedykowany zespół opracowuje nasze zasady, a także systematycznie dokonuje ich przeglądu, aby mieć pewność, że są one aktualne, zapewniają bezpieczeństwo naszym użytkownikom, a także nie przeciwstawiają się otwartości, która przyświeca YouTube.

Po dokładnym przeanalizowaniu zasad, często dochodzimy do wniosku, że fundamentalne zmiany nie są konieczne. Jednak nadal, zauważamy obszary, które mogą być niejasne lub mylące dla użytkowników. Dlatego wiele aktualizacji stanowi jedynie wyjaśnienie obowiązujących wcześniej wytycznych. Na przykład, na początku tego roku uszczegółowiliśmy zasady dotyczące popularnych „wyzwań” („challenges”), które mogą być niebezpieczne dla użytkowników. Od 2018 r. wprowadziliśmy dziesiątki aktualizacji naszych wytycznych dotyczących egzekwowania zasad, wiele to drobne wyjaśnienia, ale jest też kilka dużo bardziej znaczących.

W przypadku skomplikowanych problemów, na opracowanie nowych wytycznych YouTube poświęcamy nawet kilka miesięcy. W tym czasie konsultujemy się z ekspertami zewnętrznymi oraz twórcami, aby dokładnie zrozumieć, w jaki sposób nasze obecne działania mogą nie spełniać oczekiwań społeczności. Uwzględniamy też wtedy różnice regionalne, aby upewnić się, że proponowane zmiany mogą być stosowane uczciwie na całym świecie.

Jedną z takich znaczących zmian w polityce YouTube, była aktualizacja dotycząca mowy nienawiści. Przed jej wprowadzeniem spędziliśmy z naszym zespołem wiele miesięcy na uważnym opracowywaniu nowych zasad i wspólnej pracy nad szkoleniami i narzędziami, które pomogą nam w ich egzekwowaniu. Od wprowadzenia jej w życie na początku czerwca, nasz zespół sprawdza i usuwa więcej materiałów niezgodnych z nowymi zasadami. Idzie to w parze z coraz lepszym wykrywaniem treści niezgodnych z polityką YouTube przez nasze algorytmy. Oczywiście, udoskonalenie narzędzi do egzekwowania nowych wytycznych może zająć jeszcze trochę czasu. Jednak wpływ aktualizacji dotyczącej mowy nienawiści jest już widoczny w danych opublikowanych w raporcie Egzekwowanie Wytycznych dla społeczności:

ilustracjastrzałka

Gwałtowny wzrost liczby usuniętych materiałów jest spowodowany skasowaniem z platformy komentarzy, filmów i kanałów, których obecność przed aktualizacją była dozwolona. W kwietniu 2019 roku ogłosiliśmy, że pracujemy nad udoskonaleniem zasad dotyczących przeciwdziałania nękaniu, w tym także gnębieniu występującym pomiędzy twórcami. W nadchodzących miesiącach na pewno zaprezentujemy postępy i wyniki naszej pracy.

Algorytmy do wyłapywania szkodliwych treści

Kiedy już wprowadzimy nowe zasady YouTube, zaczynamy polegać zarówno na użytkownikach platformy, jak i na technologii. Dzięki temu oznaczone treści trafiają do zespołów, których zadaniem jest ich sprawdzenie oraz ocena. Czasami używamy tagowania (lub cyfrowych odcisków palców) do przechwytywania kopii znanych materiałów naruszających prawo, zanim zostaną one udostępnione na naszej platformie. W przypadku niektórych treści, takich jak pornografia dziecięca lub filmy o charakterze terrorystycznym, używamy specjalistycznych baz danych z tagami, dzięki czemu nasze maszyny mogą rozpoznać szkodliwe materiały jeszcze w fazie przesyłania na platformę.

W 2017 roku rozwinęliśmy naszą technologię uczenia maszynowego, aby skuteczniej wykrywać treści potencjalnie naruszające zasady, a następnie przekazywać je do oceny przez zespół pracowników. Technologia uczenia maszynowego jest niesamowicie efektywna w rozpoznawaniu materiałów, ponieważ potrafi wychwycić pewne wzorce, które później pomagają nam w znalezieniu materiałów podobnych do tych, które zostały już raz usunięte z serwisu. Algorytmy pomagają nam także w oznaczaniu mowy nienawiści lub innych szkodliwych treści. Należy jednak zaznaczyć, że wydźwięk niektórych treści w dużej mierze zależy od kontekstu, dlatego nieustannie podkreślamy znaczenie oceny naszych pracowników w podejmowaniu zniuansowanych decyzji. Niemniej jednak ponad 87% z 9 milionów wideo, które usunęliśmy w drugim kwartale 2019 roku, w pierwszej kolejności było rozpoznanych i oznaczonych przez nasz automatyczny system.

Dlatego też inwestujemy w zautomatyzowane systemy wykrywania szkodliwych treści, a nasz zespół inżynierów stara się ulepszać je z miesiąca na miesiąc. Wystarczy wspomnieć, że niedawna aktualizacja systemów wykrywania spamu przeprowadzona w drugim kwartale 2019 roku, doprowadziła do wzrostu o ponad 50% liczby usuniętych kanałów z powodu naruszenia naszej polityki dotyczącej spamu.

Usuwanie szkodliwych treści, zanim dotrą do widzów

Dokładamy wszelkich starań, aby szkodliwe treści nie trafiły do szerokiej publiczności i zostały usunięte, zanim zostaną obejrzane przez kogokolwiek. Jak już wspominaliśmy, udoskonalenia w naszym systemie automatycznego oznaczania treści pomogły nam wykryć i sprawdzić wiele materiałów, zanim jeszcze zdążyły zostać zgłoszone jako szkodliwe przez członków społeczności YouTube. W drugim kwartale 2019 roku, ponad 80% automatycznie oznaczonych wideo była usuwana zanim została obejrzana przez nawet jednego użytkownika.

Co więcej, uważamy, że najskuteczniejszą metodą w szybkim usuwaniu szkodliwych treści, jest przewidywanie problemów, zanim w ogóle nastąpią. W styczniu 2018 roku, powołaliśmy zespół Intelligence Desk, który proaktywnie monitoruje pojawiające się informacje, wpisy w mediach społecznościowych, a także raporty użytkowników. Ich zadaniem jest rozpoznanie i zrozumienie schematów i pewnych właściwości, które mogą mieć wpływ na pojawianie się niepożądanych materiałów. Dzięki temu możemy przygotować się na ich pojawienie, zanim nastąpi eskalacja problemu.

W swoich działaniach jesteśmy zdeterminowani, aby jak najbardziej ograniczyć widoczność szkodliwych treści. Właśnie dlatego w Google ponad 10 000 osób pracuje nad wykrywaniem, sprawdzaniem i usuwaniem materiałów, które naruszają nasze zasady. Ze względu na naszą zdolność do szybkiego usuwania tego typu treści, filmy naruszające te zasady stanowią ułamek procenta wyświetleń na YouTube.

Na przykład, prawie 30 000 filmów, które usunęliśmy z powodu mowy nienawiści w ostatnim miesiącu, wygenerowało zaledwie 3% wyświetleń uzyskanych przez filmy dotyczące robienia na drutach w tym samym okresie.

W poprzednim tygodniu zaktualizowaliśmy nasz kwartalny raport dotyczący Egzekwowania Wytycznych dla społeczności, który prezentuje dodatkowe informacje o liczbie materiałów, które usuwamy z YouTube, dlaczego to robimy oraz w jaki sposób je wykrywamy i sprawdzamy. Raport pokazuje także znaczenie technologii, którą wdrożyliśmy w ostatnich latach i która pomogła nam usuwać szkodliwe materiały z YouTube szybciej niż kiedykolwiek wcześniej. Niemniej jednak, znalazły się w nim także dane, które wskazują, że fachowa wiedza zespołu naszych pracowników jest nadal kluczowym elementem w zakresie egzekwowania zasad i wytycznych. To właśnie oni nieustannie pracują nad polityką YouTube, starannym przeglądem zamieszczanych treści i efektywnym wdrażaniem technologii uczenia maszynowego.

Źródło: Zespół YouTube

www.polska.googleblog.com

PR - Tekst opublikowany bezpłatnie na podstawie promocyjnych materiałów prasowych. Redakcja nie odpowiada za jego treść.

REKLAMA

Komentarze

Zaloguj się i dodaj komentarz

Najnowsze w tym dziale

Nowa ramówka CNN International
CNN International od 23 września wprowadzi dwa nowe programy wieczorne nadawane z siedziby w Londynie: „The Brief” i „Your World Today” oraz wydłuży o godzinę produkcję transmitowaną z Abu Zabi, „Connect the World”.
Branża motoryzacyjna stawia na reklamę radiową
Instytut Monitorowania Mediów zbadał wydatki reklamowe branży motoryzacyjnej w sierpniu 2019 roku. Branża ta ogółem przeznaczyła ponad 52,4 mln zł na reklamę w mediach tradycyjnych. W raporcie uwzględniono marki o największych wydatkach reklamowych oraz typy najczęściej reklamowanych produktów.
Już od poniedziałku, 16 września br. aż do październikowych wyborów parlamentarnych na tokfm.pl i w aplikacji TOK FM można słuchać podcastu "Ostatnie 24 godziny kampanii". Co wieczór jeden z 5 prowadzących podsumuje w nim kolejny dzień przedwyborczej rywalizacji partii oraz kandydatów na posłów i senatorów.
Agencja mediowa Zenith prognozuje, że w 2021 roku, średnia czasu poświęconego na konsumpcję kontentu video w internecie osiągnie w Polsce średnio 70 minut dziennie. To wciąż istotnie mniej niż przewidywane statystyki światowe, gdzie przeciętny konsument będzie w 2021 oglądał treści video online średnio przez 25 dni w roku (100 minut dziennie).
Dezinformacja wspierana przez sztuczną inteligencję szerzy się w internecie
Rozwój sztucznej inteligencji (SI) oraz zintegrowanych systemów marketingowych ułatwiły rozprzestrzenianie nieprawdziwych informacji w internecie. Boty rozprzestrzeniają sfabrykowane informacje, powstają systemy SI do manipulowania obrazami i tekstami, a większość społeczeństwa nie weryfikuje prawdziwości pozyskiwanych informacji. Korporacje technologiczne i...
 
Signs.pl - Polska Reklama i Poligrafia © 1997-2019 ICOSWszystkie prawa zastrzeżone. ISSN 2657-4764