Za nami konferencja Cyber 6.0 organizowana przez PTBRiO* pod tegorocznym hasłem „Redefine”. Swoimi wnioskami po konferencji dzieli się Emil Pawłowski, ekspert firmy Gemius.
Charakterystyczne dla tej edycji Cyber 6.0 jest to, że nie poznałem żadnego nowego „buzzword-a”. Jedynym słowem kluczowym, które przyswoiłem jest „szaman”, czyli badacz w organizacji, a poznałem je dzięki dr Tomaszowi Baranowi. Ostatnie lata były pełne nowych rewolucyjnych pomysłów, technik badawczych, kolejnych metod modelowania danych itp. itd. Teraz przyszedł czas na powiedzenie: „sprawdzam” i na sprawdzonych już rozwiązaniach wytyczenie nowych standardów dla branży.
W tym duchu bardzo ciekawym wystąpieniem była prezentacja Edyty Czarnoty z Zymetrii i Adama Wysockiego z K2 Media. Po raz pierwszy w sposób uporządkowany oraz (co najważniejsze) zrozumiały dla publiczności zaistniał postulat, aby w modelowaniu atrybucji szukać modeli a nie zakładać je a priori. Niby taki banał, a jednak do tej pory spotykałem się z prezentacjami o analizie skuteczności impresji na końcową konwersję, które były robione pod wcześniej założoną tezę. W pełni się zgadzam ze wszystkimi wnioskami, do których próbowali nas przekonać Edyta i Adam. Zaznaczyć chcę tylko, że celem atrybucji jest poszukiwanie właściwego modelu. Celem najtrudniejszym do osiągnięcia, ale przez to jakże wdzięcznym w pracy badacza.
W obszarze badań wideo w sieci Gabriel Matwiejczyk z Nielsen wyznał, że nie ma tu nic nowego do powiedzenia. Wyniki ciekawego badania, które wspólnie z Agatą Szczepankowską zaprezentował zebranym nie pozwalają na „zredefiniowanie” nas samych. W obszarze tym pojawiają się te same problemy, o których w przystępny sposób opowiedział Albert Hupa. Albert słusznie zauważył, że badanie wideo będzie ułomne bez dostępu do bazy danych materiałów wideo, nawet wtedy, jeżeli np. Nielsen i Gemius dokończą projekt fuzji i przedstawią model dla wyznaczenia wspólnego zasięgu pomiędzy tymi dwoma mediami. Bez przygotowanej bazy z „ramówką” treści dostarczanych do poszczególnych serwisów, badaczom ciężko będzie pomóc dostawcom treści w podejmowaniu dobrych decyzji. To ostatnie traktuję jak wyzwanie dla siebie i reprezentowanej przeze mnie firmy.
Najciekawsze były dwie następujące po sobie prezentacje: Beaty Kacjańskiej i Magadaleny Gajek z ZenithOptimedia oraz Krzysztofa Zielińskiego z Gemius Polska. Dziewczyny prezentowały projekt, w którym przygotowana przez „maszynę” atrybucja w bazie danych została zweryfikowana przez szamanów (jestem wdzięczny Tomkowi za to określenie). Oczyszczona przez człowieka baza dawała radykalnie różne wyniki od tych wprowadzanych przez algorytm. Co prawda, nie było opisu samego algorytmu (może po prostu był słaby…), ale z mojej perspektywy nie jest to istotne. Dla mnie, jako prostego programisty, wiadome jest, że każdy system AI musi mieć model i procedury weryfikacji zwracanych wyników. Co więcej, jest dla mnie oczywistym, że jakość danego systemu uczącego się zależy wprost od jakości i poprawności danych, na których system uczymy i którymi system weryfikujemy. Stąd wiem, że w procesie tworzenia systemów AI czynnik białkowy jest konieczny. Niestety, nie zgodzę się z prelegentkami, że wystarczający. Żaden, nawet najbardziej natchniony szaman nie jest w stanie utrzymać koncentracji i zweryfikować bazy większej niż 1024 rekordy (czytający może za 1024 podstawić swoją ulubioną liczbę powyżej 100). Tylko maszyny mogą nam dokonać atrybucji wnioskowania dla pata bajtów danych, które do tej pory zgromadziliśmy w Gemius. Poza tym, jak wstawić czynnik białkowy do procesów takich jak RTB? Ostatecznym argumentem jest cena. Każda weryfikacja czynnikiem ludzkim będzie o kilka rzędów droższa. Może okazać się, że za jakość nie ma komu zapłacić. Smutne, ale prawdziwe.
W takiej atmosferze wyszedł na scenę Krzysztof Zieliński i przedstawił nam skalę botów w sieci. (Ciekaw jestem ile projektów badawczych zmieniłoby swoje końcowe wnioski, jeżeli z danych wejściowych odfiltrowalibyśmy skutecznie dane, które w sieci produkują maszyny? A z tego co mi wiadomo ten wymiar pomijany jest milczeniem.) Od kiedy Google udostępnił API do Google Analytics, które umożliwia wysyłanie danych do tej hurtowni, można w łatwy sposób „kreatywnie” zaksięgować wiele odsłon, a potem pokazać (np. nowemu inwestorowi) super wyniki serwisu. To stwarza niepowtarzalną okazję dla takich firm jak Gemius, aby wspomogły naszą branżę poprzez udostępnienie swoich metod radzenia sobie z tym problemem.
Dr Tomasz Baran w sposób dla siebie właściwy podsumował (na wstępie), że zmiana się dokonała. W pełni się z nim zgadzam. Jesteśmy na etapie afirmacji nowej rzeczywistości badawczej. Szukamy synergii pomiędzy wszystkimi nowymi możliwościami, jakie dostaliśmy w ostatnich latach. Próbujemy odnaleźć miejsce dla dinozaurów – badaczy – w nowej rzeczywistości. Próbujemy nazwać nowe kompetencje, których potrzebujemy, aby rzetelnie odpowiadać na podstawowe pytania. Data Scientist, UX Designer, UX Researcher… a także mnóstwo innych czeka na uporządkowanie i właściwe nazwanie. Musimy wiedzieć, kim jesteśmy. Propozycja Tomka – Szamani Prezesów – (jakże atrakcyjna!) nie jest wystarczająca. Czyż to nie pora na Redefine samego PTBRiO?
Źródło: Gemius