logo
WIEDZA
Polska reklama i poligrafiaWIEDZA

Cyber 6.0 Redefine = Nihil novi. I dobrze!

   16.04.2016, przeczytano 1101 razy

Za nami konferencja Cyber 6.0 organizowana przez PTBRiO* pod tegorocznym hasłem „Redefine”. Swoimi wnioskami po konferencji dzieli się Emil Pawłowski, ekspert firmy Gemius.


Artykuł pochodzi z portalu Signs.pl: https://www.signs.pl/cyber-6.0-redefine-%3D-nihil-novi.-i-dobrze%21,28210,artykul.html

Charakterystyczne dla tej edycji Cyber 6.0 jest to, że nie poznałem żadnego nowego „buzzword-a”. Jedynym słowem kluczowym, które przyswoiłem jest „szaman”, czyli badacz w organizacji, a poznałem je dzięki dr Tomaszowi Baranowi. Ostatnie lata były pełne nowych rewolucyjnych pomysłów, technik badawczych, kolejnych metod modelowania danych itp. itd. Teraz przyszedł czas na powiedzenie: „sprawdzam” i na sprawdzonych już rozwiązaniach wytyczenie nowych standardów dla branży.

W tym duchu bardzo ciekawym wystąpieniem była prezentacja Edyty Czarnoty z Zymetrii i Adama Wysockiego z K2 Media. Po raz pierwszy w sposób uporządkowany oraz (co najważniejsze) zrozumiały dla publiczności zaistniał postulat, aby w modelowaniu atrybucji szukać modeli a nie zakładać je a priori. Niby taki banał, a jednak do tej pory spotykałem się z prezentacjami o analizie skuteczności impresji na końcową konwersję, które były robione pod wcześniej założoną tezę. W pełni się zgadzam ze wszystkimi wnioskami, do których próbowali nas przekonać Edyta i Adam. Zaznaczyć chcę tylko, że celem atrybucji jest poszukiwanie właściwego modelu. Celem najtrudniejszym do osiągnięcia, ale przez to jakże wdzięcznym w pracy badacza.

W obszarze badań wideo w sieci Gabriel Matwiejczyk z Nielsen wyznał, że nie ma tu nic nowego do powiedzenia. Wyniki ciekawego badania, które wspólnie z Agatą Szczepankowską zaprezentował zebranym nie pozwalają na „zredefiniowanie” nas samych. W obszarze tym pojawiają się te same problemy, o których w przystępny sposób opowiedział Albert Hupa. Albert słusznie zauważył, że badanie wideo będzie ułomne bez dostępu do bazy danych materiałów wideo, nawet wtedy, jeżeli np. Nielsen i Gemius dokończą projekt fuzji i przedstawią model dla wyznaczenia wspólnego zasięgu pomiędzy tymi dwoma mediami. Bez przygotowanej bazy z „ramówką” treści dostarczanych do poszczególnych serwisów, badaczom ciężko będzie pomóc dostawcom treści w podejmowaniu dobrych decyzji. To ostatnie traktuję jak wyzwanie dla siebie i reprezentowanej przeze mnie firmy.

Najciekawsze były dwie następujące po sobie prezentacje: Beaty Kacjańskiej i Magadaleny Gajek z ZenithOptimedia oraz Krzysztofa Zielińskiego z Gemius Polska. Dziewczyny prezentowały projekt, w którym przygotowana przez „maszynę” atrybucja w bazie danych została zweryfikowana przez szamanów (jestem wdzięczny Tomkowi za to określenie). Oczyszczona przez człowieka baza dawała radykalnie różne wyniki od tych wprowadzanych przez algorytm. Co prawda, nie było opisu samego algorytmu (może po prostu był słaby…), ale z mojej perspektywy nie jest to istotne. Dla mnie, jako prostego programisty, wiadome jest, że każdy system AI musi mieć model i procedury weryfikacji zwracanych wyników. Co więcej, jest dla mnie oczywistym, że jakość danego systemu uczącego się zależy wprost od jakości i poprawności danych, na których system uczymy i którymi system weryfikujemy. Stąd wiem, że w procesie tworzenia systemów AI czynnik białkowy jest konieczny. Niestety, nie zgodzę się z prelegentkami, że wystarczający. Żaden, nawet najbardziej natchniony szaman nie jest w stanie utrzymać koncentracji i zweryfikować bazy większej niż 1024 rekordy (czytający może za 1024 podstawić swoją ulubioną liczbę powyżej 100). Tylko maszyny mogą nam dokonać atrybucji wnioskowania dla pata bajtów danych, które do tej pory zgromadziliśmy w Gemius. Poza tym, jak wstawić czynnik białkowy do procesów takich jak RTB? Ostatecznym argumentem jest cena. Każda weryfikacja czynnikiem ludzkim będzie o kilka rzędów droższa. Może okazać się, że za jakość nie ma komu zapłacić. Smutne, ale prawdziwe.

W takiej atmosferze wyszedł na scenę Krzysztof Zieliński i przedstawił nam skalę botów w sieci. (Ciekaw jestem ile projektów badawczych zmieniłoby swoje końcowe wnioski, jeżeli z danych wejściowych odfiltrowalibyśmy skutecznie dane, które w sieci produkują maszyny? A z tego co mi wiadomo ten wymiar pomijany jest milczeniem.) Od kiedy Google udostępnił API do Google Analytics, które umożliwia wysyłanie danych do tej hurtowni, można w łatwy sposób „kreatywnie” zaksięgować wiele odsłon, a potem pokazać (np. nowemu inwestorowi) super wyniki serwisu. To stwarza niepowtarzalną okazję dla takich firm jak Gemius, aby wspomogły naszą branżę poprzez udostępnienie swoich metod radzenia sobie z tym problemem.

Dr Tomasz Baran w sposób dla siebie właściwy podsumował (na wstępie), że zmiana się dokonała. W pełni się z nim zgadzam. Jesteśmy na etapie afirmacji nowej rzeczywistości badawczej. Szukamy synergii pomiędzy wszystkimi nowymi możliwościami, jakie dostaliśmy w ostatnich latach. Próbujemy odnaleźć miejsce dla dinozaurów – badaczy – w nowej rzeczywistości. Próbujemy nazwać nowe kompetencje, których potrzebujemy, aby rzetelnie odpowiadać na podstawowe pytania. Data Scientist, UX Designer, UX Researcher… a także mnóstwo innych czeka na uporządkowanie i właściwe nazwanie. Musimy wiedzieć, kim jesteśmy. Propozycja Tomka – Szamani Prezesów – (jakże atrakcyjna!) nie jest wystarczająca. Czyż to nie pora na Redefine samego PTBRiO?

Źródło: Gemius

www.gemius.pl

Dodatkowe informacje:

* PTBRiO: Polskie Towarzystwo Badaczy Opinii i Rynku
powstało w 1994 roku. Do Towarzystwa należą osoby zajmujące się profesjonalnie badaniami rynku, które pracują w firmach badawczych oraz klienci zlecający takie badania.

Zadaniem PTBRiO jest reprezentowanie interesów badaczy rynku wobec instytucji publicznych i władz Rzeczpospolitej Polskiej oraz promowanie i upowszechnianie informacji dotyczących badania rynku i opinii.

Towarzystwo zajmuje się ponadto organizowaniem współpracy i wymiany informacji w środowisku badaczy rynku i opinii. Podejmuje się również działań na rzecz przestrzegania standardów metodologicznych i etyki zawodu badacza. Co rok opracowuje raporty na temat rynku badawczego w Polsce na prośbę i zgodnie ze standardami ESOMAR. Jest organizatorem szkoleń, seminariów i konferencji oraz dorocznego Kongresu Badaczy Rynku i Opinii.

REKLAMA

Komentarze

Zaloguj się i dodaj komentarz

Najnowsze w tym dziale

Era technologii mobilnych: komentarz do raportu Digital Poland 2024
Opublikowany całkiem niedawno raport “Digital Poland 2024” dostarcza ciekawych spostrzeżeń na temat wpływu cyfrowych rozwiązań na codzienne życie Polaków. Dokument przekrojowo omawia, jak głęboko technologia mobilna zaszczepiła się w naszej rzeczywistości, a rosnąca popularność mediów społecznościowych i zmiany w zwyczajach zakupowych online tylko...
Dezinformacja z użyciem AI - wpływ na wyniki wyborów
W Europie i na świecie rusza maraton wyborczy. Za nami pierwsze tury wyborów regionalnych w Hiszpanii i Włoszech. Przed nami głosowanie w wyborach samorządowych w Polsce, do europarlamentu czy wybory prezydenckie w USA. Czy wynik wyborów może być zagrożony w wyniku ataków cyberprzestępców? Co może wpływać na nasze głosowanie- zastanawia się Shamla Naidoo, adiunkt prawa na...
Armatis: telemarketing działa, ale wymaga nowego podejścia
W tym roku minie 5 lat od kiedy obwiązują przepisy nakazujące przedsiębiorcom posiadanie wyraźnej i wcześniejszej zgody konsumenta na kontakt telefoniczny w celach marketingowych. Ich wprowadzenie było dobrym krokiem w celu ochrony konsumentów przed niechcianymi telefonami, ale czy z perspektywy czasu był to ruch wystarczający? Przykłady innych krajów UE pokazują, że można w...
Kolejny atak na niemal monopolistyczną pozycję Google na rynku wyszukiwarek? Mimo że gigant technologiczny nie zachwiał się, gdy swoje działa wytoczył Microsoft implementując do swojej wyszukiwarki ChataGPT, to jednak nadal są chętni podgryźć lidera. Teraz Goliata chce przechytrzyć Dawid, czyli start-up Perplexity. Za narzędziem, które już dziś ma ponad 50...
AI: za rok większość aplikacji będzie powstawać z użyciem no-code?
Do 2025 roku 70 proc. nowych aplikacji tworzonych przez przedsiębiorstwa będzie powstawać w metodologii low-code lub no-code – wynika z danych Gartnera. Coraz popularniejsze dziś połączenie platform no-code ze sztuczną inteligencją może przynieść firmom nie tylko oszczędności finansowe, ale również skrócić czas potrzebny do wdrożenia aplikacji, zwiększając...
 
Signs.pl - Polska Reklama i Poligrafia © 1997-2024 ICOSWszystkie prawa zastrzeżone. ISSN 2657-4764