Procter & Gamble wraz z liderami świata reklamy i biznesu podejmuje walkę ze szkodliwymi treściami w Internecie

127

Sojusz Global Alliance for Responsible Media (GARM) zaprezentował podczas Światowego Forum Ekonomicznego strategię stworzenia bardziej zrównoważonego i odpowiedzialnego środowiska cyfrowego, które będzie chronić konsumentów, media i społeczeństwo przed szkodliwymi treściami w Internecie.

Szacuje się, że pomiędzy lipcem a wrześniem 2019 r. z serwisu YouTube, Facebook i Instagram usunięto 620 milionów niebezpiecznych treści. Dzięki inwestycjom właścicieli platform w stworzenie odpowiednich zespołów i narzędzi, większość tych treści usunięto, zanim pojawiły się na ekranach konsumentów. Jednak w ciągu 3 miesięcy do użytkowników sieci dotarło około 9,2 milionów szkodliwych treści, co przekłada się średnio na jeden taki materiał na sekundę.¹

GARM podejmuje działania zmierzające do zagwarantowania bezpieczeństwa czterem miliardom ludzi, którzy codziennie korzystają z Internetu. Jednocześnie długofalowym celem inicjatywy jest wyeliminowanie z sieci nagannych treści i zablokowanie dostępu do środków przeznaczonych na reklamę podmiotom dopuszczającym się szkodliwych działań. GARM łączy siły ze Światowym Forum Ekonomicznym, aby wspólnie realizować cel, jakim jest poprawa bezpieczeństwa w środowisku cyfrowym. Jest jednym z kluczowych projektów zainicjowanej przez Forum platformy definiującej przyszłość mediów „Platform for Shaping the Future of Media, Entertainment and Culture”.

W sojuszu GARM uczestniczy 39 reklamodawców, 6 holdingów agencji reklamowych, 7 wiodących platform mediowych i 7 stowarzyszeń branżowych. Zaprezentowali oni swoją strategię stworzenia bardziej zrównoważonego i odpowiedzialnego środowiska cyfrowego, które będzie chronić konsumentów, media i społeczeństwo. W ramach tej strategii uczestnicy sojuszu podejmują działania określone w trójstronnym planie, którego realizacja rozpoczęła się już w czerwcu ubiegłego roku.

Wspólne definicje: Sojusz opracował i przyjmie wspólne definicje, które posłużą całej branży reklamowej do spójnej i uniwersalnej kategoryzacji szkodliwych treści. 11 kluczowych definicji obejmujących obszary, takie jak treść nieodpowiednia dla dzieci, narkotyki, spam czy terroryzm, pozwolą platformom, agencjom i reklamodawcom w spójny sposób określić, które z tych treści należy uznać za szkodliwe i jak chronić wrażliwych odbiorców, takich jak dzieci. Wyznaczenie tych standardów to pierwszy krok, który przyczyni się do ograniczenia czerpania korzyści z rozpowszechniania szkodliwych treści w formie reklam.

Wspólne narzędzia i systemy: Sojusz opracuje i wprowadzi narzędzia, które pozwolą skuteczniej zintegrować systemy kontroli reklamodawców, narzędzia agencji oraz działania platform mediowych w obszarze kategoryzacji treści. Wprowadzenie takich rozwiązań sprawi, że proces planowania budżetów reklamowych będzie przejrzysty oraz dokładny, co w efekcie poprawi bezpieczeństwo konsumentów, w obszarze otrzymywania komunikatów reklamowych od firm.

Niezależny nadzór: Sojusz uzgodni wspólne standardy pomiarów pozwalający przedstawicielom branży i platformom mediowym rzetelnie oceniać swoje możliwości w zakresie blokowania, demonetyzacji i usuwania szkodliwych treści. Wspólne dla reklamodawców, agencji i platform narzędzia oraz jednolita metodologia pozwolą zapewnić przejrzystość, która jest kluczowa do podjęcia działań zwiększających bezpieczeństwo konsumentów w sieci. Wdrożenie tych standardów i uzgodnienie niezależnego procesu weryfikacji przyczyni się do znacznej poprawy funkcjonowania w tym obszarze. Specjalna grupa robocza z ramienia GARM będzie odpowiedzialna za wdrażanie tej strategii już od kwietnia.

Reklamodawcy mają szansę odegrać niebagatelną rolę w ulepszaniu cyfrowego ekosystemu, na którym zależy nam wszystkim. W związku z tym, że to marki utrzymują wiele platform i dostawców treści, możemy zapewnić społeczeństwu dostęp do korzyści, jakie daje Internet bez konieczności mierzenia się z jego ciemnymi stronami, których istnienia mamy niestety świadomość. Te pierwsze podejmowane przez GARM działania to bardzo ważny krok w dobrym kierunku, który przyniesie korzyści konsumentom, społeczeństwu i markom. Bardzo cieszę się, że WFA odegrało tak istotną rolę w zgromadzeniu wokół tej wspólnej, ważnej inicjatywy różnych podmiotów reprezentujących fragmenty cyfrowego ekosystemu.

Stephan Loerke, dyrektor generalny WFA

Już czas, by zbudować odpowiedzialny mediowy łańcuch dostaw z myślą o roku 2030 – taki, który będzie działał w sposób bezpieczny, wydajny, przejrzysty, rzetelny oraz będzie odpowiednio moderowany dla dobra wszystkich jego uczestników, a zwłaszcza konsumentów, którym ma służyć. Dzięki temu, że wielu wybitnych przedstawicieli naszej branży zdecydowało się stanąć ramię w ramię i podjąć wspólne działania w ramach inicjatywy Global Alliance for Responsible Media, razem będziemy w stanie uniknąć błędów przeszłości i obrać właściwy kurs na przyszłość.

Globalny Chief Brand Officer Procter & Gamble, Marc Pritchard

Komunikat został wydany w ramach odbywającej się w Davos sesji World Economic Media Leaders pt. „Business Leaders Act to Eliminate Harmful Online Content: Global Alliance for Responsible Media launches solutions to Improve Digital Safety” („Liderzy świata biznesu podejmują walkę ze szkodliwymi treściami w Internecie: Inicjatywa Global Alliance for Responsible Media wprowadza rozwiązania, które zwiększają bezpieczeństwo w cyfrowym świecie”), w którym obok przedstawicieli platform internetowych takich jak Facebook czy Youtube, koncernów reklamowych i firm FMCG, wziął także udział Globalny Chief Brand Officer Procter & Gamble, Marc Pritchard

Pełna treść komunikatu wydanego przez WFA: GARM

¹ Dane liczbowe dotyczące szkodliwych treści pozyskano z raportów przejrzystości działania serwisów Facebook, Instagram i YouTube za okres od lipca do września 2019 r., które biorą pod lupę komentarze i filmy uznane za niezgodne ze standardami i polityką serwisów społecznościowych. Ww. liczby dotyczą wyłącznie usuniętych treści (nie kont) i określonych jako szkodliwe dla bezpieczeństwa konsumentów w odniesieniu do konkretnych wytycznych, co oznacza, że nie biorą pod uwagę fałszywych kont i spamu