...

BRIEF dociera do polskich firm i ich pracowników – do wszystkich tych, którzy poszukują inspiracji w biznesie i oczekują informacji o ludziach, trendach i ideach.

Skontaktuj się z nami

Według Unii, 3/4 firm w Polsce ma wdrożyć do 2030 roku rozwiązania na bazie Big Data, AI i chmury

Do 2030 r. trzy na cztery firmy w Unii Europejskiej będą korzystać z usług przetwarzania w chmurze, big data i rozwiązań sztucznej inteligencji – wynika z przewidywań Kompasu Cyfrowego(1). Jednak 97% menedżerów w polskich przedsiębiorstwach przyznaje, że ich firma nie zakończyła jeszcze procesu transformacji cyfrowej i tylko około ćwierć z nich uważa, że ich firma obecnie znajduje się na zaawansowanym etapie(2). Co w ten sposób tracą? Czy będą w stanie sprostać oczekiwaniom UE do końca dekady?

Globalnie wydatki na sztuczną inteligencję rosną. Według danych z bieżącego roku budżety 74% ankietowanych firm przeznaczone na ten cel przekroczyły wartość 500 tys. USD3. Jednak niezbędnym warunkiem sukcesu każdego wdrożenia AI jest solidny fundament w postaci danych dostępnych cyfrowo. Nie dziwi więc, że 9 na 10 firm deklaruje zwiększenie intensywności wydatków w tych obszarach4, a inwestycje w transformację cyfrową i zrównoważony rozwój mogą potencjalnie zaowocować około 5,7 milionem nowych miejsc pracy w Europie do końca dekady5.

Czy polskie firmy są gotowe?

Osiągnięcie ambitnych celów postawionych przez Komisję Europejską z pewnością będzie stanowić wyzwanie dla polskich przedsiębiorców. Pod względem innowacyjności, na tle innych krajów Unii Polska zajmuje dopiero 4 miejsce od końca, jak wynika z European Innovation Scoreboard6. Przyczyny tego stanu rzeczy są różne – najczęściej są to koszty związane z innowacjami, brak odpowiedniego wsparcia albo niedostatek wiedzy w temacie7.

Polska przoduje w obszarze otwartości konsumentów na innowacje i transformację cyfrową, o czym świadczą wzrosty w sektorze finansów. Jest również pierwsza w regionie Europy Środkowo-Wschodniej i siódma w Unii Europejskiej pod względem liczby ekspertów pracujących nad rozwojem lub wdrażaniem technologii na bazie sztucznej inteligencji8. Jednak przed pandemią nie przekładało się to na intensywniejsze podejście lokalnych firm do innowacji.

Marcin Somla, Country Manager Grupy SER w Polsce

Co polskie firmy mogą zrobić, aby sprostać tym oczekiwaniom?

Wdrożenie opisanych przez Unię rozwiązań wymaga w pierwszej kolejności digitalizacji danych biznesowych, a następnie ich przechowywania w sposób zorganizowany i możliwy do przeszukiwania. Główną przeszkodą jest to, że większość danych korporacyjnych jest nieustrukturyzowana. Wiadomości e-mail, umowy lub faktury – to przykłady dokumentów, których nie można skutecznie zorganizować w systemie rekordów w sposób taki jak ustrukturyzowane dane w systemach ERP. Oznacza to, że duże przedsiębiorstwo, które codziennie ma do czynienia z milionami dokumentów, musi zastosować bardziej zaawansowane podejście do zarządzania treścią.

Rozwiązania Enterprise Content Management (ECM) pozwalają firmom na cyfryzację i automatyzację przepływów pracy, a dzięki temu znacznie sprawniejsze wyodrębnianie cennych informacji oraz metadanych z dokumentów i innych rodzajów treści. Najbardziej zaawansowane systemy ECM robią to za pomocą sztucznej inteligencji, a dokładniej: algorytmów uczenia maszynowego i deep learning. Rozwiązania te mogą być stosowane zarówno lokalnie, w chmurze, jak i hybrydowo, a dla firm zajmujących się dokumentami na dużą skalę są wręcz koniecznością.

Przy analizie raportów z różnych branż można zaobserwować, że wprawdzie niektóre firmy rozpoczęły procesy cyfryzacji swoich biznesów, ale wciąż mają nadzieję, że wraz z zakończeniem pandemii uda im się wrócić do normalnego działania w starym trybie. I chociaż nowo założona mała firma może od samego początku być całkowicie zdigitalizowana i operować bez papieru, duże przedsiębiorstwo, mające codziennie do czynienia z milionami dokumentów, będzie potrzebowało elastycznego, innowacyjnego rozwiązania z zakresu Enterprise Content Management. W takiej sytuacji przestarzałe archiwa i monolityczne rozwiązania muszą stać się przeszłością. Właśnie w tym segmencie potrzebne są takie rozwiązania jak Doxis4 firmy SER Group.

Marcin Somla, Country Manager Grupy SER w Polsce

Aby sprostać oczekiwaniom Unii Europejskiej, polskie firmy musiałyby przyjąć długofalową wizję swojej strategii zarządzania informacją. Trendy wskazują, że cyfryzacja jest już częścią nowej rzeczywistości w najbardziej rozwiniętych firmach. Wdrożenie systemów ECM w polskich przedsiębiorstwach umożliwiłoby im dalsze unowocześnianie przepływów pracy. Obejmuje to możliwość analizowania danych, automatycznego wydobywania cennych informacji oraz usprawnienia przepływów pracy i procesów biznesowych za pomocą automatyzacji. Wszystkie te funkcje wykorzystują możliwości sztucznej inteligencji, przy jednoczesnym zachowaniu zgodności i bezpieczeństwa przez cały czas – zarówno lokalnie, jak i w chmurze.

1 European Commission, Digital Decade for Europe: Commission sets direction to create a digital Europe by 2030, 2021
2 Future.Company & Kantar Polska, The state of digital transformation in Poland, 2021
3 Appen, The State of AI and Machine Learning, 2021
4 Accenture, Europe’s new dawn. Reinventing industry for future competitiveness, 2021
5 Accenture, Europe’s new dawn. Reinventing industry for future competitiveness, 2021
6 European Commission, European Innovation Scoreboard, 2021
7 Future.Company & Kantar Polska, The state of digital transformation in Poland, 2021
8 Digital Poland, The State of Polish AI, 2021


 Źródło: SER Group

Brief.pl - jedno z najważniejszych polskich mediów z obszaru marketingu, biznesu i nowych technologii. Wydawca Brief.pl, organizator Rankingu 50 Kreatywnych Ludzi w Biznesie.

BRIEF

Dane na wagę złota. W gospodarkach typu data-driven rośnie rola analityków

Big data

Firmy technologiczne, banki, agencje ubezpieczeniowe, e-commerce, ośrodki medyczne, instytuty badania opinii, a w końcu szereg przedsiębiorstw z niemal każdej branży – to tylko niektóre z podmiotów, które codziennie przetwarzają duże ilości danych. Umiejętne wykorzystanie big data znacząco podnosi konkurencyjność poszczególnych firm oraz całych gospodarek. Analiza danych wymaga jednak specjalistycznych kompetencji, a rynek pracy wciąż nie jest w stanie nadążyć za rosnącym popytem na analityków. Lukę tę stara się wypełnić sektor edukacyjny, który coraz mocniej stawia na kształcenie w zawodzie analityka danych.

Raport „Analityk danych – zawód z przyszłością”1 przygotowany przez Coders Lab oraz Pracuj.pl podaje, że analitycy są obecnie jednymi z najbardziej poszukiwanych specjalistów na rynku pracy. Przede wszystkim ze względu na proces cyfrowej transformacji, w którym uczestniczy coraz więcej podmiotów gospodarczych. Prognozuje się, że liczba stanowisk pracy dla analityków będzie w nadchodzących latach nieustannie rosnąć. Potwierdza to raport McKinsey & Company „Polska 2030”2 , który zaznacza, że postępująca automatyzacja będzie stymulowała powstawanie nowych miejsc pracy m.in. dla analityków, którzy tworzą i rozwijają algorytmy automatyzacyjne.

Big Data ropą XXI wieku

Na początku roku 2020 Fundacja Digital Poland szacowała, że „przy odpowiednich regulacjach i inwestycjach w technologie cyfrowe wartość rynku danych może osiągnąć aż 739 mld euro, co będzie stanowiło 4 proc. PKB Unii Europejskiej”3 . Cytowani przez Fundację eksperci podkreślają, że znaczenie danych dla światowej gospodarki systematycznie rośnie. Korzysta z nich branża technologiczna i przemysł internetowy, ale coraz częściej również tradycyjne branże takie jak samochodowa. Dziś ciężko wręcz znaleźć sektor, w którym dane nie byłyby wykorzystywane do poprawy produktywności.

Największymi korzyściami, jakie płyną z big data są, poza wspomnianym wzrostem produktywności, optymalizacja działalności firmy, lepsze zrozumienie potrzeb klienta, automatyzacja decyzyjności, a co za tym idzie – większa konkurencyjność przedsiębiorstw data-driven. Analiza danych może być bardzo wartościowa, ale nie jest łatwym zadaniem. Big data, jak wskazuje sama nazwa, to zbiory danych tak duże, że nie można na nich pracować przy pomocy zwyczajnych, tradycyjnych metod. Potrzebne są do tego zarówno odpowiednie technologie, jak i kompetentni specjaliści.

Analitycy danych poszukiwani

Wraz z rozwojem cyfrowych gospodarek oraz postępującą automatyzacją w coraz większej liczbie branż rośnie zapotrzebowanie na pracowników z wysokimi umiejętnościami cyfrowymi. Jednym z przykładów jest analityk danych, do którego zadań należy pozyskiwanie i przetwarzanie danych, a następnie ich analiza oraz wizualizacja.

Marcin-TchorzewskiGromadzenie danych staje się coraz bardziej istotne w funkcjonowaniu niemal każdego biznesu. Ważna jest też wiedza o tym, jak dane te analizować, aby podejmować właściwe decyzje biznesowe. Biorąc pod uwagę skalę tego zagadnienia, nie dziwi fakt, że firmy walczą o specjalistów, którzy będą mogli pomóc im działać strategicznie.

Marcin Tchórzewski, CEO Coders Lab – pierwszej szkoły IT w Polsce

Raport Coders Lab i Pracuj.pl mówi, że w Polsce 55 proc. ogłoszeń o pracę dla analityka danych dotyczy miast powyżej 250 tys. mieszkańców. Zapotrzebowanie na ekspertów w tej dziedzinie jest jednak zróżnicowane terytorialnie, a prawie połowa ogłoszeń pochodziła z mniejszych ośrodków. Sytuacji zawodowej analityków sprzyja fakt, że ich praca może być wykonywana zdalnie. Według raportu liczba wszystkich ogłoszeń oferujących możliwość pracy zdalnej w 2020 roku wzrosła aż o 284 proc. względem poprzedniego roku. Przewiduje się, że do 2028 roku 73 proc. wszystkich zespołów będzie miało pracowników zdalnych.

Sektor edukacyjny odpowiada na potrzeby rynku

Mimo dużego popytu na pracę analityka danych, rynek IT wciąż zmaga się z niedoborem specjalistów w tej dziedzinie. Sytuację tylko częściowo ratują uczelnie techniczne. W ich przypadku edukacja przyszłego pracownika zajmuje dobrych kilka lat. Znacznie szybciej na rynek pracy trafiają absolwenci kursów IT organizowanych przez prywatne szkoły, które skupiają się na szkoleniu w takim zakresie, jakiego oczekują pracodawcy.

Według raportu Coders Lab i Pracuj.pl aż 61 proc. stanowisk wymaga znajomości SQL i/lub Python.

Marcin-TchorzewskiFirmy coraz częściej kładą szczególny nacisk na znajomość języków programowania wykorzystywanych w analizie danych. Znajomość tego typu narzędzi pozwala na zwiększenie dystansu do innych kandydatów. Coraz częściej Python pojawia się jako wymóg na wielu stanowiskach oferowanych w obszarze analizy danych. Konieczne jest zatem przełamanie paradygmatu tradycyjnie wykorzystywanego Microsoft Excel i wejście na kolejny poziom analizy.

 Marcin Tchórzewski, współzałożyciel szkoły programowania Coders Lab

Analitycy danych nie narzekają na zarobki

Analityk danych to zawód, który wymaga coraz szerszego spektrum umiejętności, służących nie tylko przetwarzaniu informacji oraz wyciąganiu z nich poprawnych wniosków, ale też ich przejrzystej prezentacji. Szkoły, poza nauką języków takich jak SQL czy Python, koncentrują się więc także na zagadnieniu wizualizacji danych. Duże znaczenie dla analityka powinny mieć również kompetencje biznesowe, znajomość branży oraz działań konkurencji, dzięki czemu uzyskuje się kontekst do właściwej interpretacji danych.

Wszystko zmierza do tego, by dzięki pracy analityka oraz właściwie opracowanym danym, firma mogła stale powiększać swoją przewagę rynkową. Praca z big data to wymierne korzyści finansowe dla przedsiębiorstwa, ale i dla samego analityka danych. Raport Coders Lab i Pracuj.pl podaje, że średnie miesięczne zarobki na stanowiskach juniorskich w tym zawodzie oscylują wokół 5 576 zł brutto, pensja midów wynosi około 8 210 zł brutto, natomiast zarobki seniorów z większym doświadczeniem zaczynają się od 13 274 zł brutto.

Raport wyraźnie pokazuje, że sytuacja na rynku analityków danych jest bardziej niż dobra i nic nie wskazuje na to, żeby miała ona ulec zmianie.

1    Coders Lab i Pracuj.pl, „Analityk danych – zawód z przyszłością”, Analiza powstała na bazie ofert zamieszczonych na portalu Pracuj.pl w 2020 roku – https://coderslab.pl/pl/analityk-danych-zawod-z-przyszloscia
2   McKinsey & Company „Polska 2030. Szansa na skok do gospodarczej ekstraklasy”
3   Fundacja Digital Poland, „Big data w Polsce. Praktyczny i krótki przewodnik dla MŚP”, Warszawa, luty 2020


Źródło: Coders Lab

Brief.pl - jedno z najważniejszych polskich mediów z obszaru marketingu, biznesu i nowych technologii. Wydawca Brief.pl, organizator Rankingu 50 Kreatywnych Ludzi w Biznesie.

BRIEF

Firmy odkrywają, co daje im Big Data

Big_data wykres na komputerze

Jedynie co czwarta duża polska firma wykorzystuje technologię Big Data w swojej działalności - wynika z raportu Digital Poland “Big Data w Polsce”. To znacznie poniżej średniej w Unii Europejskiej, która wynosi 33 proc. Jednak zastosowanie analizy danych do podejmowania decyzji biznesowych daje zdecydowaną przewagę nad konkurencją.

Ostatnie półtora roku to trudny czas dla wielu branż i firm. Pandemia dotknęła niemal każdej dziedziny życia wpływając na zachowania społeczne i zakupowe konsumentów. Przedsiębiorcy zderzyli się z koniecznością dostosowania planów biznesowych do zmieniającej się rzeczywistości. Dostęp do narzędzi umożliwiających szybką i kompleksową analizę rynku, dostarczających danych o aktualnych nawykach grup docelowych pozwala celniej przewidywać trendy w swojej branży a tym samym może stanowić o przewadze konkurencyjnej.

Jakie dane są wykorzystywane przez firmy?

Z raportu Digital Poland wynika, że polscy przedsiębiorcy sięgają najczęściej po informacje geolokalizacyjne pochodzące z urządzeń mobilnych (5 proc.) i w tym przypadku wypadają podobnie jak średnia dla krajów Unii Europejskiej (6 proc.). Z kolei wykorzystanie danych z social media czy z czujników i inteligentnych urządzeń jest w Polsce na poziomie 2 proc. podczas gdy średnia dla krajów UE wynosi odpowiednio 6 proc. i 4 proc.
wykres
Źródło: dataplace.ai
Tego typu dane wykorzystywane są głównie do celów marketingu online lub geotargetowanych reklam. Jednak w ostatnim czasie na popularności zyskuje także zastosowanie ich do lepszego rozumienia konsumentów w świecie offline. Zauważamy ten trend, także wśród naszych klientów. Coraz więcej dużych marek, takich jak Carrefour, P&G, Coca-Cola czy PKO BP wykorzystuje informacje o zachowaniach konsumentów w offline na podstawie danych z milionów urządzeń mobilnych.
Marki zauważyły, jak dużo zyskują na poznawaniu i rozumieniu klienta. Niestety popularne narzędzia do np. analityki sprzedaży online nie mają zastosowania w offline, choć to dalej sprzedaż. Firmy dostrzegają tę lukę i starają się ją załatać.
Hubert Guzera, CEO i współzałożyciel dataplace.ai, firmy specjalizującej się w usługach typu location intelligence
wykres
Źródło: dataplace.ai
Z analityki danych korzysta coraz więcej liderów branży retail, FMCG, mediów czy usług. Wartość rynku location intelligence jest szacowana na ponad 88 miliardów dol. i przyrasta ponad 12 proc. rok do roku. Dzięki danym firmy mogą ocenić potencjał sprzedażowy danej lokalizacji, upewnić się co do wielkości pożądanej grupy docelowej w wybranym miejscu i odpowiednio dopasować do niej działania sprzedażowe. Zebrane dane pozwalają również monitorować mikro zmiany i tym samym szybciej weryfikować zaplanowane scenariusze działań.

Location intelligence w biznesie

Menedżerowie dużych sieci handlowych kojarzą dane geolokalizacyjne przede wszystkim z zastosowaniem ich podczas procesu ekspansji, rozbudowy sieci o kolejne lokalizacje. Tymczasem to nie jest jedyny scenariusz. Coraz więcej firm zauważa, że bardzo duże korzyści i wiedzę przynoszą one już na etapie działania sklepów.
Hubert GuzeraDużo ciekawsze i mniej oczywiste jest zastosowanie danych geolokalizacyjnych do budowania strategii działań marketingowych i sprzedażowych w świecie offline. Jednak dobór rozwiązania jest zawsze poprzedzony analizą problemu, z którym mierzy się klient. Przykładem jest firma mediowa specjalizująca się w marketingu w galeriach handlowych, stosująca dane do szacowania liczby osób, które konkretnego dnia lub tygodnia odwiedziły galerię a tym samym miały szansę wysłuchać nadawanego komunikatu reklamowego. Zespół wie do ilu gości placówki handlowej dotarł przekaz, co jest też istotne przy planowaniu działań dla innych klientów. Pozwala szacować potencjał kampanii: do ilu osób dotrze i jak to wpłynie na ruch w konkretnym sklepie.
Hubert Guzera, CEO i współzałożyciel dataplace.ai
Analizy umożliwiają ocenę sposobu, w jaki różne działania promocyjne (np. outdoor) wpływają na ruch w danym sklepie. Dostarczają informacji także o placówkach konkurencji i efektach podejmowanych przez nie działań. Dzięki temu łatwiej jest przygotować kolejne kampanie, wiedząc np. jak skuteczne były te, które w ostatnim czasie realizowała konkurencja.
Hubert GuzeraDane z naszej aplikacji pozwalają oszacować również w jaki sposób, i na ile dana marka współdzieli klientów z konkurencją. Która placówka jest miejscem pierwszego wyboru, jaka jest penetracja marki w skali mikrorynku np. dzielnicy czy miasta. Mając tę wiedzę firmy lepiej rozumieją otoczenie i tym samym celniej dobierają działania.
Hubert Guzera, CEO i współzałożyciel dataplace.ai

Przykład wykorzystania danych typu location intelligence dla branży FMCG oraz dla sieci sklepów budowlanych zamieszczone są na blogu dataplace.ai.

Aby nadążyć za tempem zmian i różnorodnością w otoczeniu biznesowym niezbędna staje się regularna analiza danych jako podstawa strategii biznesowej. Tym bardziej, że jesteśmy świadkami ciągłych zmian w obszarze mobilności konsumentów i ich nawyków zakupowych.

Źródło: dataplace.ai

Brief.pl - jedno z najważniejszych polskich mediów z obszaru marketingu, biznesu i nowych technologii. Wydawca Brief.pl, organizator Rankingu 50 Kreatywnych Ludzi w Biznesie.

BRIEF

Dell Technologies wraz z i2b2 tranSMART Foundation tworzą „cyfrowe bliźniaki”, by leczyć przewlekły zespół COVID

Big data

Dell Technologies (NYSE:DELL) pomaga Fundacji i2b2 tranSMART, organizacji badawczej non-profit, zbierać ogromne ilości anonimowych danych pacjentów z całego świata w celu stworzenia wirtualnych modeli z wirusem COVID-19. Tzw. cyfrowe bliźniaki pomogą leczyć skutki przewlekłego zespołu COVID.

Dzięki nowoczesnej infrastrukturze firmy Dell Technologies społeczność i2b2 tranSMART będzie wykorzystywać anonimowe dane pacjentów do tworzenia cyfrowych bliźniaków. Następnie naukowcy będą mogli przeprowadzić miliony zindywidualizowanych symulacji leczenia na cyfrowych bliźniakach, aby określić najlepszą możliwą opcję terapii dla pacjentów, w oparciu o ich uwarunkowania genetyczne i historię choroby.

Aby to umożliwić, potrzebne są odpowiednie zasoby obliczeniowe, zdolności w zakresie sztucznej inteligencji, uczenia maszynowego oraz zaawansowana pamięć masowa do generowania wspomnianych cyfrowych bliźniaków. W tym celu Dell Technologies stworzyła tzw. enklawę danych, bezpieczną sieć do przechowywania danych składającą się z systemów pamięci masowej Dell EMC PowerEdge, PowerStore i PowerScale, a także usług integracji od VMware WorkSpace One i Boomi. W enklawie danych naukowcy gromadzą, przechowują i analizują dane rozproszone po różnych systemach monitorowania i elektronicznych kartach zdrowia, a w przyszłości będą mieli możliwość aktualizowania cyfrowych bliźniaków, uwzględniając dane kliniczne zbierane w czasie rzeczywistym przez respiratory i kardiomonitory.

Ten projekt jest doskonałym przykładem współdziałania globalnej społeczności badawczej i technologicznej, która łączy siły, by wspierać osoby cierpiące na schorzenia, których jeszcze dobrze nie poznaliśmy. W ramach współpracy z Fundacją i2b2 tranSMART wykorzystamy naszą wiedzę i technologie do budowania cyfrowych bliźniaków, udostępniania danych oraz przeprowadzania symulacji i analiz. Uzyskana w ten sposób wiedza pozwoli nam lepiej zrozumieć i leczyć pacjentów z przewlekłym zespołem COVID.

Jeremy Ford, wiceprezes ds. innowacji społecznych i dotacji w Dell Technologies

Początkowo naukowcy wykorzystają enklawę danych do przeprowadzenia testów, symulacji i analiz 70 000 pacjentów, które zostaną udostępnione 4CE Consortium, międzynarodowej koalicji ponad 200 szpitali i ośrodków badawczych włączając partnerów z USA, Francji, Niemiec, Włoch, Singapuru, Hiszpanii, Brazylii, Indii oraz Wielkiej Brytanii. Działania te mogą docelowo objąć dane dla nawet dwóch milionów cyfrowych bliźniaków w ciągu najbliższych czterech lat.

Zrozumieć i leczyć przewlekły zespół COVID

Szacuje się, że u 1 na 20 osób, która przeszła COVID-19, mogą wystąpić długotrwałe objawy tej choroby, w tym silne zmęczenie, mgła mózgowa, bóle głowy, arytmia serca, gorączka i duszności. Osoby z powikłaniami po COVID-19 cierpią na przewlekły zespół COVID, zwany też zespołem pocovidowym [z j. ang.: Post-Acute Sequelae of SARS-CoV-2 (PASC)]. Wciąż niewiele wiadomo na temat tego, dlaczego u niektórych choroba utrzymuje się mimo wyeliminowania wirusa z organizmu, ani na temat długofalowych skutków choroby.
Aby dowiedzieć się więcej, National Institutes of Health ogłosił niedawno pierwszy etap czteroletniej, wartej miliard dolarów inicjatywy wspierającej badania nad zespołem pocovidowym.

Badania nad tym schorzeniem wymagają kolosalnych ilości danych o pacjentach. Współpracując bezpośrednio z 4CE Consortium, Fundacja i2b2 tranSMART wspiera proces zbierania danych z sieci ponad 200 instytucji na całym świecie. Aby chronić prywatność pacjentów, wszystkie dane są anonimizowane zanim zostaną przekazane do Konsorcjum 4CE.

Na tym etapie pracownicy służby zdrowia dokonują naprawdę przełomowych odkryć, opracowując i oceniając skuteczność terapii COVID-19. Nowa platforma oparta na AI pomoże im wykorzystać ogromną ilość nowych wyników badań, aby zapewnić lepszą opiekę i precyzyjne terapie dla pacjentów. Tworząc cyfrowe bliźniaki, przenosimy badania kliniczne na zupełnie nowy poziom.

dr Shawn Murphy, członek zarządu i2b2 tranSMART Foundation


Źródło: Dell

Brief.pl - jedno z najważniejszych polskich mediów z obszaru marketingu, biznesu i nowych technologii. Wydawca Brief.pl, organizator Rankingu 50 Kreatywnych Ludzi w Biznesie.

BRIEF

Vestbee: Transakcje funduszy VC w Europie Środkowo-Wschodniej wyniosły ponad 1 mld EUR w 2020 roku [RAPORT]

VC Funding

Według raportu VC Funding In CEE - 2020 opublikowanego przez Vestbee, największą platformę online dla startupów, funduszy VC, akceleratorów i korporacji w Europie Środkowo Wschodniej, liczba inwestycji typu venture capital w regionie CEE w 2020 roku wyniosła ponad 730, a suma całkowitego finansowania przekroczyła 1 mld EUR.

Według Vestbee, najbardziej popularnymi wśród inwestorów branżami w 2020 roku były sztuczna inteligencja, big data, e-commerce, reklama, opieka medyczna, blockchain, fintech, marketplace oraz agritech. Pod względem ilości transakcji, najbardziej aktywnymi krajami były Polska, Węgry i Estonia z odpowiednio 313, 110 i 97 inwestycjami. Startupy z tych krajów przodowały także wysokości finansowania: Bolt pozyskał €150M, Iceye – €73M, Brainly – €66M oraz Booksy – €60M. Dodatkowo w raporcie wyszczególniono najbardziej aktywnych inwestorów w Europie Środkowo-Wschodniej, czyli Hiventures, Fil Rouge Capital, Startup Wise Guys, CB Investment Management, Smok VC, Polish Venture Fund, KnowledgeHub, CZYSTA3.VC, Netrix Ventures and Brave VC.

Wybuch COVID-19 spowodował, że rok 2020 zapisze się jako nieprzewidywalny okres dla startupów i funduszy VC w Europie Środkowo-Wschodniej. Pomimo początkowej stagnacji, aktywna druga połowa 2020 roku pokazała, że rynki szybko dostosowują się do zmiennych okoliczności, które poza licznymi wyzwaniami, ostatecznie stanowią katalizator zmian i generują nowe możliwości. Zarówno startupy jak i inwestorzy, którzy przewidzieli kierunki zmian i byli w stanie szybko dostosować się do nowych warunków, zwłaszcza postępującej digitalizacji, są zdecydowanie liderami minionego 2020 roku.


W 2021 roku można spodziewać się dalszego zwiększenia liczby i wartości transakcji na rynku VC, co głównie wynika z ogromnej podaży kapitału typu venture capital dla firm technologicznych na wczesnym etapie rozwoju z regionu Europy Środkowo-Wschodniej oraz postępującej digitalizacji wszelkich sektorów oraz obszarów funkcjonowanie firm i całego społeczeństwa.

Ewa Chronowska, założycielka Vestbee i partner w fundusz VC, Next Road Ventures

Zestawienie transakcji VC, kwartalne porównanie inwestycji oraz krótkie opisy najbardziej interesujących startupów, które zakończyły rundę finansowania w 2020 roku w Europie Środkowo-Wschodniej znajdują się w pełnym raporcie Vestbee VC Funding In CEE Report 2020.


Źródło: Vestbee

Brief.pl - jedno z najważniejszych polskich mediów z obszaru marketingu, biznesu i nowych technologii. Wydawca Brief.pl, organizator Rankingu 50 Kreatywnych Ludzi w Biznesie.

BRIEF

Specjaliści Business Intelligence coraz bardziej poszukiwani i najlepiej opłacani w IT

kobieta programuje na laptopie

Przekształcanie danych w informacje biznesowe, analiza i zarządzanie nimi to dziś jedna z najbardziej pożądanych specjalizacji w branży IT. Jak nigdzie w tej dziedzinie liczy się doświadczenie - ponad 70 proc. ofert w sektorze Business Intelligence (BI) na portalu No Fluff Jobs skierowanych jest do seniorów. Nic dziwnego, że i zarobki - niezależnie od rodzaju umowy, należą tu do jednych z najwyższych w IT. W przypadku specjalisty Big Data wynagrodzenia na umowie B2B sięgają nawet 21 500 zł, dla eksperta od AI odpowiednio 18 200 zł.

Kompleksowa analiza danych w firmach IT obejmuje dziś różnorodne obszary działania organizacji. Obecnie jest to nie tylko analiza wydajności, dostępności i jakości usług, ale również analiza efektywności zespołów, nie tylko deweloperskich. Dlatego firmy rozbudowują działy, w których pracownicy IT monitorują dane ze wszystkich obszarów funkcjonowania organizacji: od twardych danych, takich jak koszty czy przychody, po niematerialne obszary ich działalności, włączając w to wpływ działań podejmowanych przez zespoły projektowe na markę, jej odbiór i rozpoznawalność wśród grup docelowych. I właśnie tak rynek pracy dla specjalistów, którzy się tym na co dzień zawodowo zajmują, zbadał No Fluff Jobs, portal ofert pracy w branży IT.

Pracy w BI wciąż przybywa

Choć oferty dla osób posiadających wiedzę i doświadczenie w dziedzinach Business Intelligence, Machine Learning i Artificial Intelligence nadal stanowią około 5 proc. wszystkich ofert dla branży IT publikowanych w portalu nofluffjobs.com, to okazuje się, że wzrost zapotrzebowania na specjalistów z tych dziedzin rośnie w ostatnich latach. Między rokiem 2018 i 2020 liczba ogłoszeń o pracy dla nich wzrosła o 243 proc.

Warto zaznaczyć, że 49 proc. ogłoszeń z obszaru Business Intelligence (BI) – jak podaje No Fluff Jobs – dotyczy umów B2B. Jednak zwiększone zapotrzebowanie na specjalistów z tej dziedziny wymaga od pracodawców elastyczności – może dlatego co 4. oferta (23 proc.) daje specjalistom możliwość wyboru pomiędzy kontraktem a etatem. Jedynie 3 proc. pracodawców oferuje umowę o dzieło lub zlecenie.

 

Kogo i gdzie szukają pracodawcy. Ile płacą specjalistom BI?

Pracodawcy w obszarach Business Intelligence chcą zatrudniać głównie seniorów i doświadczonych „wymiataczy” w powiązanych technologiach, ale oferują im dobre wynagrodzenie. Jak wynika z analizy No Fluff Jobs 70 proc. ofert pracy w tej dziedzinie kierowana jest do seniorów, 19 proc. do specjalistów średniozaawansowanych (mid) i 10 proc. dla ekspertów przewyższających poziom seniorski. Wniosek: praca dla juniorów w tym obszarze prawie nie występuje, a oferty dla nich stanowią jedynie 1 proc. wszystkich.

Zarobki specjalistów BI należą do najwyższych w branży IT, obok pracy w obszarze Security. Jeśli chodzi o specjalistów Big Data (specjalistów od przetwarzania danych o dużym wolumenie), to mogą oni liczyć na wynagrodzenie mieszczące się w przedziale od 16 000 do nawet 21 500 zł na umowie B2B. Jeśli wybiorą etat, wysokość pensji jest nieco niższa i sięga od 11 000 zł do 16 000 zł. Specjaliści z dziedziny Artificial Intelligence (AI) mogą liczyć na zarobki odpowiednio – na umowach w B2B w przedziale 14 500-18 200 zł, a na etacie 12 000 do 16 500 zł.

źródło: ROCKET SCIENCE Sp. z o.o.

Warto tu dodać, że największe zapotrzebowanie na informatyków specjalizujących się w obszarze BI według No Fluff Jobs występuje w Warszawie – aż 46 proc. ofert pochodzi właśnie z tego regionu. Na kolejnych miejscach są Kraków – 21 proc. ofert i Wrocław – 14 proc.

Oferty całkowicie zdalne (“fully remote”) w No Fluff Jobs stanowią już 17 proc. wszystkich z dziedzin Busienss Intelligence. Pracodawcy do momentu wybuchu pandemii sukcesywnie otwierali się na tryb pracy zdalnej i dziś już ponad 40 proc. spośród 3 500 ofert pracy dla specjalistów IT zawiera opcję pracy całkowicie zdalnej. Pod koniec roku 2019 ogłoszenia pracy zdalnej stanowiły jedynie 10 proc. wszystkich ogłoszeń publikowanych w portalu.

 

Tomasz Bujok z No Fluff Jobs

Pożądane stanowiska i języki programowania

Praca w obszarze BI w IT wymaga znajomości konkretnych języków programowania – specjalista BI musi na zaawansowanym poziomie znać języki Python, Java oraz SQL. Coraz częściej też w ofertach pracy z dziedziny BI pojawiają się wymagania (“must have”) dla języków Scala i R. Ponadto w cenie są specjaliści, którzy znają narzędzia Apache, w szczególności rozwiązanie Hadoop oraz tajniki przetwarzania rozproszonego, a także specjaliści, którzy sprawnie korzystają z narzędzia Ansible wykorzystywanego m.in. do automatyzacji procesów administracyjnych – wynika z analizy No Fluff Jobs.

źródło: ROCKET SCIENCE Sp. z o.o.

 

Jeśli chodzi o podział stanowisk w obszarze BI to 36,8 proc. ofert na specjalistów Big Data/AI dotyczy Big Data Engineer, niewiele mniej – Data Engineer. Oferty z zakresu Data Science czy Machine Learning stanowią odpowiednio 15,1 proc. i 10,5 proc. wszystkich ogłoszeń. Ciekawe dane płyną też z analizy popytu, czyli liczby aplikacji na jedną ofertę. Dla przykładu liczba aplikujących na jedno stanowisko w dziedzinie Data Science wynosi aż 43 osoby na jedno ogłoszenie.

Liczby przedstawione w analizie odzwierciedlają sytuację w tej gałęzi branży IT. I nic dziwnego, że firmy nie tylko płacą dużo, ale też oferują duże spectrum rozwoju zawodowego specjalistom BI.

Rozwiązania Business Intelligence otwierają drogę do szerszego działania nie tylko na poziomie monitoringu wydajności i jakości procesów i usług, ale są również punktem wyjścia do szeroko pojętej automatyzacji działań. Automatyzacja natomiast, najczęściej oznacza mniejsze koszty przy jednoczesnym osiąganiu lepszych wskaźników efektywnościowych.
Tomasz Bujok z No Fluff Jobs

 

*Uwzględnione w raporcie oferowane wysokości wynagrodzeń to stawki miesięczne brutto na umowie o pracę oraz netto na umowie B2B. Podane w badaniu wartości są medianą – co oznacza, że 50 proc. specjalistów zarabia mniej niż podana kwota, a 50 proc. więcej.


źródło: Informacja prasowa  ROCKET SCIENCE Sp. z o.o

 

Brief.pl - jedno z najważniejszych polskich mediów z obszaru marketingu, biznesu i nowych technologii. Wydawca Brief.pl, organizator Rankingu 50 Kreatywnych Ludzi w Biznesie.

BRIEF

Reklama mądrzejsza niż kiedykolwiek wcześniej. Firmy w Polsce inwestują rekordowe kwoty w dane [RAPORT]

ziemia z satelity swiatla

Zaangażowanie klientów w kanały cyfrowe rośnie od lat, a pandemia tylko spotęgowała ten trend. Nie umknęło to uwadze reklamodawców, którzy w tym roku wydali rekordowe kwoty na cyfrowy marketing oparty na danych. Tylko w tym roku i tylko w Polsce na cyfrowe informacje przeznaczymy 32 mln USD, wynika z raportu Cloud Technologies. Piotr Prajsnar, CEO Cloud Technologies został wyróżniony w 7. edycji rankingu 50. Najbardziej Kreatywnych Ludzi w Biznesie.

Zapraszamy do reklamy – mówi stary slogan radiowej Trójki. I chociaż ta forma przyciągania uwagi konsumentów przez lata ewoluowała, to zawsze zachowała swój pierwotny cel: wspieranie sprzedaży. Jednak nieprzewidywalny 2020 zafundował nam wiele niespodzianek i coś wyraźnie się zmieniło.

wielkosc rynku danych na swiecie

Jak pokazują ostatnie badania CMO: Special Covid-19 Edition, pandemia zmieniła nawyki klientów, którzy obecnie na pierwszym miejscu stawiają doświadczenia cyfrowe. Aż 84% ankietowanych przez CMO marketerów twierdzi, że odbiorcy przykładają znacznie większą wagę do reklamowego user experience. Specjaliści od komunikacji nie mają złudzeń, że zwiększone skupienie się na wirtualnych kanałach komunikacji będzie trwałą zmianą w zachowaniu konsumentów.

Piotr Prajsnar, CEO Cloud Technologies

Nic więc dziwnego, że rosną wydatki na Big Data, czyli anonimowe informacje, które pozwalają zdefiniować aktywności realizowane w sieci. W odpowiedzi na oczekiwania rynku firmy śmielej inwestują w dane, które pomogą im nie tylko w opracowaniu skuteczniejszych reklam, ale również usprawnią cały ekosystem, w którym funkcjonuje biznes.

Digitalizacja po polsku

Global Data Market Size to cykliczny raport opracowany przez warszawską spółkę z segmentu nowych technologii – Cloud Technologies. Twórcy skupiają się w nim na analizie całego rynku danych, a ten z roku na rok rośnie jak na drożdżach.

Powodem jest stale rosnące zapotrzebowanie na informacje. Segment marketingu analizowany przez warszawską spółkę każdego roku rozwija się w dwucyfrowym tempie. W listopadzie 2020 miała miejsce premiera najnowszej wersji, która została zaktualizowana o prognozy na obecny i przyszły rok.

Z publikacji dowiadujemy się, że mimo iż kryzysy zdrowotny i ekonomiczny wciąż trwają, to nadwiślański rynek danych zanotuje rekordową wartość wyceny. Polskie wydatki na cyfrowe informacje wyniosą w 2020 aż 32,1 mln USD, co oznacza wzrost o 17,5% rdr.

W porównaniu z innymi europejskimi państwami to wynik plasujący nas w połowie stawki, pomiędzy skrajnie wstrzemięźliwym gospodarkami, jak Rumunia (4,0 mln USD), Bułgaria (0,2 mln USD), czy Węgry (0,9 mln USD), a informacyjnymi pionierami, do których należą między innymi nasi zachodni sąsiedzi, Niemcy (826,3 mln USD), Wielka Brytania (3 064,2 mln USD) czy Francja (912,5 mln USD).

Nie da się ukryć, że zaangażowanie w nowe technologie w biznesie, szczególnie te ukierunkowane na wspieranie sprzedaży, związane jest z potencjałem nabywczym danego społeczeństwa. Jak wynika z najnowszego raportu GfK Purchasing Power Europe 2020, który porównuje możliwości nabywcze danych gospodarek, purchasing power index, czyli wskaźnik możliwości nabywczych, jest w Polsce 3 razy niższy niż w Niemczech. Jednocześnie jest wyższy niż węgierski czy rumuński.

Piotr Prajsnar, CEO Cloud Technologies

Praca analityków warszawskiej spółki nie ograniczyła się wyłącznie do podsumowania 2020. Szacuje się, że przyszłoroczna wartość rynku danych wyniesie blisko 40 mln USD, co oznacza ponad 22% wzrost w porównaniu z rokiem obecnym. Podany wynik pozwoli nam zmniejszyć dystans do znacznie bogatszych od nas nacji: Szwajcarów (64,8 mln USD), Holendrów (70,3 mln USD) czy Hiszpanów (72,3 mln USD).

Sztuczna Inteligencja na straży

Dziś najpopularniejszym sposobem wykorzystania danych behawioralnych, czyli takich, które charakteryzują zachowanie internauty w sieci, jest dystrybucja treści reklamowych w sieci.

Służą one do budowy nowej strategii, tworzenia produktów, bądź też przewidywania trendów, ale dziś ich głównym zastosowaniem jest komunikacja. Dlatego wzięliśmy pod uwagę kondycję rynku reklamy programmatic. Rozwiązanie to jest dziś najpopularniejszą formą zakupu powierzchni displayowych w sieci.  W okresie, który poddajemy analizie, czyli w latach 2017-2021, wartość polskiego rynku programmatic dynamicznie rośnie z roku na rok. Od 2018 roku zwiększa się ona w tempie dwucyfrowym.

Maciej Sawa, CEO OnAudience.com, spółki należącej do grupy Cloud Technologies

Jak szacują twórcy raportu, mimo trwającej pandemii i wbrew polityce „zaciskania pasa”, która stosowana jest w wielu organizacjach, wartość nadwiślańskiego rynku programmatic wzrośnie w porównaniu z poprzednim rokiem o ponad 10% i wyniesie w tym roku 216 mln USD.

To nie koniec pomyślnych prognoz, które dotyczą sektora reklamy programowalnej w Polsce. Nadchodzący 2021 ma być rekordowy pod względem wyceny rynku programmatic, szacuje się, że jego wartość wyniesie nieco ponad 250 mln USD. To o 15% więcej niż w trwającym 2020. Wystarczyły zaledwie 4 lata, by zdublować wartość wyceny z 2017 (126 mln USD w 2017).

wielkosc rynku danych w Europie
wielkosc rynku danych w Polsce

Złoty sektor

Analizując raport Cloud Technologies zauważymy, że dobra koniunktura rynku danych wykracza daleko poza granice Polski. Od czasu pierwszego opublikowanego przez warszawską spółkę podsumowania w 2017 roku, wartość tego sektora wzrosła ponad dwukrotnie i szacuje się, że w 2020 wyniesie 41,4 mld USD.

Mimo trwającej pandemii, wydatki nie przestaną rosnąć. Już w przyszłym roku możemy spodziewać się kolejnych rekordów. Prognozowana wartość rynku danych w 2021 ma wynieść 52,3 mld USD (wzrost o 26,2%). A jak wygląda sytuacja w poszczególnych regionach?

Biorąc pod uwagę wartość rynku danych, Stary Kontynent z wynikiem 6,3 mld USD tylko nieznacznie wygrywa z Chinami (5,4 mld USD). Swoją dominację kolejny rok potwierdzają Amerykanie. Stany Zjednoczone będą w 2020 największym na świecie lokalnym rynkiem danych – 24,7 mld USD to blisko 4 razy więcej niż prognozowany europejski wynik.

Układ sił może ulec wkrótce przetasowaniu .O ile pozycja lidera, wydaje się niezagrożona, o tyle obserwując dynamikę, z jaką rozwija się chiński rynek, powinniśmy się spodziewać, że już za rok, wyniki osiągane przez Pekin zrównają się z europejskimi.

Piotr Prajsnar, CEO Cloud Technologies

Analitycy warszawskiej spółki przewidują, że już w 2021 różnica pomiędzy rynkiem europejskim a chińskim stanie się symboliczna i wyniesie zaledwie 0,3 mld USD na korzyść Starego Kontynentu (7,6 mld do 7,3 mld USD). Chiny będą mogły pochwalić się 35% dynamiką wzrostu w nadchodzącym roku. To o 13 p.p. więcej niż wyniesie europejski wynik.

Dyskusja o tym, czy informacja zdominuje naszą rzeczywistość, wydaje się bezzasadna, to już się stało. Dziś, posługiwanie się danymi staje się tak powszechne, że dla wielu jest wręcz niezauważalna – i to świadczy o sukcesie tego rozwiązania.

Zobacz pełną wersję raportu Global Data Market Size 2017-2021


Źródło: informacja prasowa Cloud Technologies

 

 

Brief.pl - jedno z najważniejszych polskich mediów z obszaru marketingu, biznesu i nowych technologii. Wydawca Brief.pl, organizator Rankingu 50 Kreatywnych Ludzi w Biznesie.

BRIEF

Analityka w czasie rzeczywistym pomoże firmom szybciej reagować na zmiany nawyków konsumentów

informatyk analizuje dane na komputerze

Trwający kryzys pandemii COVID-19 spowodował znaczące zmiany w przepływie strumieni finansowych. Część klientów straciła pracę, niektórym zredukowano wynagrodzenie. Wpłynęło to na ich nawyki związane zarówno z oszczędzaniem, jak i wydawaniem pieniędzy. Firmy muszą podejmować szybkie decyzje, aby odpowiadać na potrzeby zmieniającego się rynku. O tym, jak systemy analityczne mogą pomóc zrealizować ten cel, dyskutować będą przedstawiciele nauki i biznesu podczas wirtualnej konferencji Advanced Analytics and Data Science 2020.

Trudno określić, które zmiany w zachowaniach konsumentów pozostaną z nami na dłużej, a które ustąpią po zakończeniu pandemii. Długoterminowymi skutkami koronawirusa są zwiększenie się ryzyka kredytowego kontrahentów, jak również zwiększający się odsetek klientów windykowanych. Oznacza to, że instytucje finansowe muszą szybko przeorganizować procesy pożyczkowe i wdrożyć bardziej restrykcyjne polityki scoringowe. To z kolei może prowadzić do zbyt częstego kwalifikowania klientów jako niewiarygodnych. Takie działanie skutkuje decyzją odmowną o przyznaniu kredytu, stratą przychodu dla banku i niezrealizowaną inwestycją organizacji czy osoby, która ubiegała się o pożyczkę. W szerszej perspektywie oznacza to negatywny wpływ na poszczególne firmy, a także na gospodarkę całego państwa.

Szybkie analizy w niepewnych czasach

Firmy codziennie analizują ogromną ilość zewnętrznych i wewnętrznych informacji o klientach. Dzięki jednolitym platformom automatyzującym wszystkie etapy cyklu życia modeli analitycznych, takim jak SAS Viya, obecnie procesy te zajmują znacząco mniej czasu niż kiedyś. Samo modelowanie również uległo skróceniu dzięki postępowi technologicznemu, np. dostępności technologii in-memory, polegającej na przetwarzaniu danych w szybkiej pamięci RAM. W efekcie biznes może szybko przejść od fazy projektowej do praktycznego wykorzystania efektów procesów analitycznych.

Szybkość podejmowania decyzji zawsze odgrywała kluczową rolę w każdej branży. Obecnie analiza danych w czasie rzeczywistym jest jeszcze ważniejsza. Zachowania konsumentów stają się coraz mniej przewidywalne. Firmy muszą błyskawicznie określać możliwości pozyskania i utrzymania klienta, a także oceniać jego wiarygodność i szacować ryzyko wystąpienia nadużyć. Z pomocą przychodzi analityka, w tym również algorytmy Artificial Intelligence.

Łukasz Libuda, Principal Business Solutions Manager w SAS Polska

Procesy analityczne cechuje duża złożoność. Współpraca wielu użytkowników niejednokrotnie wiąże się z tym, że korzystają oni z różnych systemów czy języków programowania. Mając to na uwadze, SAS dostosował swoje rozwiązania do potrzeb współpracy np. z programistami czy twórcami modeli analitycznych, korzystającymi z narzędzi open source czy interaktywnych kreatorów no-code/low-code. W projekty z zakresu analityki zaangażowane są osoby o różnym stopniu zaawansowania. Część z nich nie ma odpowiedniej wiedzy, aby móc samodzielnie tworzyć i udoskonalać modele analityczne. System SAS oferuje wsparcie technologiczne podpowiadając użytkownikowi, jakie kroki powinien wykonać, dysponując określonym zestawem danych. Nie oznacza to oczywiście, że narzędzia analityczne same podejmują decyzje biznesowe.

Kompetencje analityczne wciąż poszukiwane

Firmy muszą budować wewnętrzne kompetencje w obszarze zaawansowanej analityki. Dlatego bardzo ważna jest współpraca biznesu z uczelniami wyższymi w zakresie kształcenia kadr i rozwijania odpowiednich kompetencji, zwłaszcza w obszarach analitycznych wykorzystujących sztuczną inteligencję, która jest dziedziną podlegającą nieustannym zmianom i ciągłej ewolucji.

Uczelnie wyższe muszą na bieżąco reagować na rozwój technologii oraz wynikające z tego zmiany rynkowe i dostosowywać programy nauczania do aktualnych potrzeb przedsiębiorstw. Specjaliści na stanowiskach data scientist, których kształcimy w Szkole Głównej Handlowej w Warszawie, między innymi na kierunku Analiza Danych – Big Data odgrywają coraz większą rolę w swoich organizacjach.

Ewa Frątczak, Profesor SGH, kierownik Zakładu Metod Statystycznych i Analiz Biznesowych w Szkole Głównej Handlowej w Warszawie

Jaka będzie nowa cyfrowa normalność w biznesie?

Analityka w czasie rzeczywistym wspierana przez sztuczną inteligencję to ważne narzędzie w rękach decydentów działających w realiach cyfrowej ekonomii. Szybkość decyzji zwiększa konkurencyjność na niezwykle rozproszonych i szybkozmiennych rynkach. Jednocześnie wszyscy chcą tworzyć długoterminowe strategie działania w sytuacji, gdy o przyszłości wiadomo bardzo niewiele. Organizacje, które wykorzystują systemy scenariuszowe czy też stress testowe, mogą przygotować się na nadchodzące miesiące i w bardziej trafny sposób zaplanować działania w perspektywie długoterminowej. W tym celu firmy wykorzystują zaawansowane modele analityczne, budują eksperckie reguły biznesowe oraz analizują wszelkie możliwe ścieżki rozwoju.

W realiach tak zwanej nowej normalności firmy potrzebują wsparcia technologii i wiedzy płynącej z danych w coraz szerszym zakresie. Wychodząc naprzeciw tym potrzebom, w bieżącym roku akademickim na kierunku Analiza Danych – Big Data wprowadzamy nowy przedmiot kierunkowy „Real Time Analytics”, który łączy nowoczesne technologie z zaawansowaną analityką biznesową. Pracujemy też nad otwarciem nowej generacji studiów podyplomowych. Naszym celem jest wykształcenie kolejnych pokoleń analityków, którzy posiadają niezbędną wiedzę i kompetencje w zakresie modelowania i analizy danych w czasie rzeczywistym.

Ewa Frątczak, Profesor SGH, kierownik Zakładu Metod Statystycznych i Analiz Biznesowych w Szkole Głównej Handlowej w Warszawie

Spotkanie ekspertów

Na temat roli analityki na zmieniających się rynkach dyskutować będą przedstawiciele sektora nauki, biznesu i technologii podczas wirtualnej konferencji Advanced Analytics and Data Science. Spotkanie organizuje Szkoła Główna Handlowa w Warszawie we współpracy z SAS. Tematem przewodnim siódmej edycji wydarzenia, które odbędzie się 14 września 2020 r., będzie Real-Time Analytics & Cybersecurity.
Patronat honorowy nad wydarzeniem objął Rektor Szkoły Głównej Handlowej w Warszawie – profesor Piotr Wachowiak. W programie znajdą się między innymi: wnioski z globalnych doświadczeń dotyczących wykorzystania technologii AI i machine learning w biznesie oraz najlepsze praktyki w zakresie zastosowania Real-Time Analytics w obszarach takich jak: risk management, credit scoring, customer intelligence czy fraud detection. Zaprezentowane zostaną także najnowsze narzędzia i rozwiązania oraz praktyczne przykłady ich zastosowania w różnych branżach.

Program konferencji i formularz rejestracyjny znajdują się TUTAJ.


Źródło: informacja prasowa SAS

Brief.pl - jedno z najważniejszych polskich mediów z obszaru marketingu, biznesu i nowych technologii. Wydawca Brief.pl, organizator Rankingu 50 Kreatywnych Ludzi w Biznesie.

BRIEF

Masz tylko 2 sekundy, później zostaniesz zapomniany

kobieta i mezczyzna na zakupach uwaga

Firma Mars właśnie podzieliła się ze światem wynikami swoich najnowszych badań z pogranicza biznesu, technologii i psychologii. Chcesz zostać zauważony? Masz na to tylko 2 sekundy… To odkrycie na zawsze może zmienić to, jak marki promują swoje produkty. Czy to wstrząśnie światem marketingu?

Amerykański gigant branży spożywczej, firma Mars, opublikowała właśnie wyniki swoich najnowszych badań, które analizują zjawisko postrzegania przez internautów marek w sieci. Wnioski z niego płynące mogą zaniepokoić skostniałych marketerów. Dlaczego?

Banery, pop-upy i inne wirtualne kreacje reklamowe stały się odpowiednikiem banerów i szyldów reklamowych w świecie rzeczywistym. Proces przekazania pałeczki trwa już od lat, jednak na skutek pandemii zmiany nabrały tempa. Dlatego wszelkie wieści dotyczące spadku wydajności tej formy komunikacji to bardzo złe wieści dla specjalistów od promocji.

Tomasz Sokół członek zarządu Online Advertising Network, agencji należącej do grupy Cloud Technologies, specjalizującej się w Big Data marketingu, który polega na wykorzystywaniu danych z sieci do tworzenia komunikacji

Zaklęcie na klientów przyciągnięcie

Mars to globalna firma, której roczne obroty przekraczają 30 mld dolarów. To tyle ile wynosi roczna wartość PKB Estonii. Amerykańska firma posiada w portfolio rozpoznawalne produkty, jak cukierki M&M’s, gumy Wrigley’s, czy batony Snickers. Dobra szybkozbywalne to mocny punkt oferty producenta. Nie jest więc tajemnicą, że amerykański gigant rośnie w siłę między innymi dzięki spontanicznym zakupom. Z perspektywy firmy, dobry klient, to taki, który nie zastanawia się długo zanim produkty trafią do jego koszyka.

Sorin Patilinet, dyrektor ds. globalnego marketingu konsumenckiego w firmie Mars intensywnie pracuje ze swoim zespołem w należącym do spółki laboratorium komunikacji. naukowcy próbują znaleźć odpowiedź na pytanie: co sprawia, że wybieramy te, a nie inne produkty podczas zakupów. Jak najpierw zwrócić uwagę, a następnie stworzyć więź emocjonalną z konsumentem – to zagadka, jaką usiłują rozwiązać eksperci.

Nie chodzisz do sklepu z gumą na liście zakupów. Chcemy dotrzeć do jak największej liczby osób, aby zbudować tę strukturę pamięci, która zostanie uruchomiona w momencie zakupu, zwłaszcza że połowa naszych kategorii to głównie zakupy impulsowe, takie jak czekolada i guma.

Sorin Patilinet, w wywiadzie dla serwisu The Drum

Produkt testowany na klientach

Zespół Patilinet’a spędził ostatnie sześć miesięcy, pracując z firmą RealEyes, która specjalizuje się w wykorzystaniu sztucznej inteligencji do śledzenia ludzkiego zachowania w sieci nad opracowaniem czegoś, co nazywa „przyszłością testów wstępnych”. To rodzaj oprogramowania, wykorzystującego SI, która ma pomóc zrozumieć firmie, co się klientom podoba, a co nie.

To anonimowe odczytywanie „kodu twarzy”, polega na analizie zachowania i emocji odbiorcy, po to, by w efekcie wykryć jego zainteresowanie. Gdy program był gotowy, zespół naukowców wyszedł ze środowiska laboratoryjnego. Pod lupę wzięto 130 formatów reklamowych w różnych regionach globu. Spoty miały zróżnicowany czas trwania – 6, 15 lub 30 sekund, eksperymentowano też z dłuższymi formami na YouTube, Facebooku. Wszystko po to, by zrozumieć jak kreacja reklamowa oddziaływuje na uwagę odbiorcy.

To narzędzie zostało opracowane w ramach jednego z największych badań neuromarketingowych na świecie, które trwają już piąty rok. Jeden z głównych wniosków z badania brzmi: w przypadku niektórych kreacji reklamowych czas, jaki klienci poświęcają na ich obejrzenie to zaledwie… 2 sekundy.

Ta informacja nie jest dla nas zaskoczeniem, gdyż już przed dwoma laty, powołując się na badania firmy Lumen, ostrzegaliśmy branżę przed negatywnymi skutkami kontynuowania obecnej formy komunikacji. Wówczas traktowano to jako ciekawostkę, a wiele marek zignorowało zalety technologii uczenia maszynowego i Big Data, które pozwalają na tworzenie spersonalizowanych reklam. Dzisiaj obserwujemy konsekwencje tego zaniedbania. 

Tomasz Sokół z Online Advertising Network, która realizuje kampanie marketingowe oparte na analizie Big Data

Podobnego zdania jest wspomniany wcześniej dyrektor z firmy Mars Sorin Patilinet, który twierdzi, że marketerzy muszą pamiętać, że uwaga nie zmniejsza się sama z siebie. To efekt zbyt wielu reklam, które powodują powstanie za dużego bałaganu w witrynach internetowych i to spowodowało usuwanie świadomości reklam z życia konsumenta.

Klient coraz mniej wrażliwy

Oprócz opracowania nowego narzędzia firma Mars zebrała 4000 kampanii, na podstawie których zidentyfikowała ich bezpośredni wpływ na sprzedaż. Zrobili to we współpracy z czołowymi ośrodkami badawczymi: Nielsenem, Cataliną, IRI, Kantarem i GFK. Spośród tych tysięcy reklam wybrano 250, które przetestowano pod kątem różnych elementów procesu poznawczego, uwagi, emocji i pamięci. Kluczowy wniosek: uwaga, jaką poświęca nam odbiorca, jest silnie związana z wynikiem sprzedażowym.

Sama uwaga nie jest odpowiedzią.

Patrzymy na to, jak na drabinę. Pierwszą potrzebą jest uwaga, ponieważ wiemy, że uwaga maleje. Kiedy już zdobędziesz tę uwagę, możesz zacząć wzbudzać emocje. Udowodniliśmy, że budując emocje, możesz kodować swoje charakterystyczne zasoby w mózgu konsumenta znacznie lepiej. A potem te aktywa można wykorzystać. Zatem ostatecznym celem nie są emocje. Ostatecznym celem jest kodowanie pamięci. A dzieje się to szybciej dzięki emocjom niż racjonalnym komunikatom.

Sorin Patilinet, dyrektor ds. globalnego marketingu konsumenckiego w firmie Mars

Nowy początek

Czy to oznacza odwrót od reklamy online? Niekoniecznie, ponieważ problemem nie jest sam sposób komunikacji, a jej mało skuteczne wykorzystanie. Sektor Digital Ads rośnie jak na drożdżach, a warunki do rozwoju ma z roku na rok coraz lepsze. Globalna pandemia koronawirusa spowodowała, że spędzamy więcej czasu w sieci, a to natomiast sprzyja dynamicznemu rozwojowi reklamy online. Szacuje się, że do 2024 światowy rynek reklamy cyfrowej będzie wart ponad 460 miliardów USD, zgodnie z analizą przeprowadzoną przez serwis Statista. To 100 mld więcej niż w 2020.

Wpływ na tak pomyślną koniunkturę ma między innymi rosnąca ilość danych, które generujemy. Sztuczna inteligencja “wydobywa” kluczowe dla firmy informacje ze zbiorów anonimowych danych, które internauci pozostawiają po sobie, surfując po sieci. Dzięki temu biznes może precyzyjniej komunikować się ze swoimi odbiorcami. Określenie przypadek, stało się słowem zakazanym w leksykonie zwrotów marketera.

Tylko trzeba z tego narzędzia umiejętnie korzystać. Ogromny potencjał tkwi w personalizacji. Chodzi o to, by trafić do konsumenta w odpowiednim miejscu i czasie. Klient to nie liczba w arkuszu, to żywa osoba, której naturę i preferencję musimy uwzględniać w obszarze komunikacji.

Grzegorz Kosiński, prezes Audience Network specjalizującej się w realizacji precyzyjnie targetowanych kampanii reklamowych online

Staje się jasne, że bez technologii, współczesna komunikacja nie istnieje. Zaawansowane narzędzia ze świata technologii marketingowych i prawdziwie spersonalizowany przekaz są kluczem do udanych kampanii promocyjnych. Kontekstowe interakcje w czasie rzeczywistym nie są już opcjonalnymi dodatkami dla marketerów, a powinny stanowić podstawę budowania kreacji reklamowych.


Źródło: informacja prasowa Audience Network 

Brief.pl - jedno z najważniejszych polskich mediów z obszaru marketingu, biznesu i nowych technologii. Wydawca Brief.pl, organizator Rankingu 50 Kreatywnych Ludzi w Biznesie.

BRIEF

Dzień, w którym skończy się miejsce na dane

kiedy skonczy sie miejsce na dane

To niemal pewne - za 4 lata skończy nam się miejsce na dane. Ilość informacji, jakie produkujemy, rośnie szybciej niż pojemność dysków twardych. Do końca roku wygenerujemy blisko 60 zettabajtów - to trzydziestokrotnie więcej niż przed dekadą. Jednak rekord ten zostanie szybko pobity. Już za 4 lata będziemy generowali blisko trzy razy więcej informacji niż obecnie.

Pierwszy dysk twardy, na którym można było przechowywać prywatne dane, stworzony przez firmę IBM miał pojemność zaledwie 5 MB. Dzisiejsze podstawowe modele smartfonów posiadają pamięć wielkości 64 GB. To ponad 12 tysięcy razy więcej.

Zapotrzebowanie na pamięć drastycznie rośnie, lecz po przekroczeniu granicy 1 TB w komputerach stacjonarnych i laptopach, wyścig na cyferki wytracił impet.

Piotr Prajsnar z Cloud Technologies, CEO warszawskiej spółki IT, która specjalizuje się w przetwarzaniu danych

Czemu tak się stało? Czy nie potrzebujemy bardziej pojemnych dysków?

Niezupełnie. Pojawiły się smartfony i to one stają się teraz urządzeniami, które służą do kontaktu użytkownika z siecią i konsumpcji treści. Są teraz centralnym punktem rozrywki większości internautów, co widać choćby w wydatkach reklamowych. Jak wynika z raportu IAB Europe, Adex Benchmark 2019 Report, w 2019 roku europejskie wydatki na kampanie mobilne po raz pierwszy były większe od kwot przeznaczonych na reklamy desktopowe – przekroczyły 30 mld euro – zauważa ekspert warszawskiej spółki.

Piotr Prajsnar z Cloud Technologies, CEO warszawskiej spółki IT, która specjalizuje się w przetwarzaniu danych

Powódź danych

Według informacji zebranych przez portal Statista.com w lipcowym raporcie “Volume of data/information created worldwide” (Wielkość danych generowanych na całym świecie), tylko w tym roku nasza aktywność w sieci spowoduje powstanie kolejnych 59 zettabajtów danych.

Na tę wartość składają się zarówno osobiste pliki przechowywane przez użytkowników detalicznych, jak np. chmura, jak i treści firmowe, w skład których wchodzą informacje z systemów i ruchu w sieci. To tzw. Big Data. To informacja, rozumiana jako wynik interakcji użytkownika z siecią internetową. Ma olbrzymią wartość biznesową, przez co jest wielokrotnie porównywana do ropy naftowej, która zrewolucjonizowała życie, przemysł i gospodarkę. Informacja pochodząca z Big Data ma być właśnie takim “next big thing” w biznesie i jest wykorzystywana szczególnie w reklamie online i firmowych systemach analitycznych.

Piotr Prajsnar z Cloud Technologies

Zebrane na firmowych serwerach dane są wykorzystywane przez biznes, który dzięki temu może tworzyć i rozwijać produkty. Już dawno przekonał się o tym sektor reklamowy. Analizę Big Data wykorzystuje się powszechnie do realizacji kampanii online w modelu automatycznym (programmatic). Wykorzystując dane dotyczące zachowania internautów, marketerzy mogą dostosować reklamę w czasie rzeczywistym do ich zainteresowań, intencji zakupowych, wieku czy lokalizacji konsumentów. Według raportu Zenith w tym roku już 69% mediów cyfrowych jest sprzedawana właśnie w tym modelu.

Ile danych to dużo?

Czy blisko 60 zettabajtów to dużo? Najpopularniejszy obecnie dysk twardy montowany w laptopach czy konsolach do gier ma pojemność 1 terabajta, a to mniej więcej tyle ile miliard takich dysków połączonych ze sobą. Gdybyśmy zebrali taką ilość, bylibyśmy w stanie wypełnić nimi blisko 18 basenów olimpijskich.

Patrząc na statystyki z przeszłości, łatwo zauważyć, że zaledwie 10 lat temu było to trzydzieści razy mniej niż obecnie, bo około 2 zettabajty. A co przyniesie przyszłość? Jak prognozują specjaliści z Statista, już za 4 lata tegoroczny wynik zostanie zwielokrotniony, osiągając 159 zettabajtów generowanych danych.

Informacyjna powódź to konsekwencja zmiany nawyków, do czego walnie przyczynił się koronawirus. Wzrosła nie tylko konsumpcja mediów cyfrowych, co automatycznie generuje więcej danych, ale i korzystanie z e-sklepów. Jak donosi serwis eMarketer, w samych Stanach Zjednoczonych rynek e-commerce zwiększy się w tym roku o 18%.

Większe zaangażowanie w świecie cyfrowym dostrzegają marketerzy. Chętniej inwestują w reklamy online, dzięki czemu ten kanał znacznie łagodniej przejdzie przez kryzys wywołany pandemią niż tradycyjne media. Co prawda jak twierdzi firma WARC, w ujęciu globalnym wydatki spadną o ponad 16%, jednak na niektórych rynkach, np. w Wielkiej Brytanii, prognozuje się nawet niewielki wzrost wydatków na kampanie online.

Duży wpływ na generowanie dużej ilości danych ma również postępujące w ostatnich latach przebiegunowanie modelu własności z “mieć” na “pożyczać”. Netflix czy Spotify – platformy streamingu online skradły serca internautów. A nie jest tajemnicą, że w oparciu o dane o zachowaniu internautów na serwisach streamingowych, firmy tworzą lepiej spersonalizowane produkty. Filmy czy muzyka stworzone pod dyktando algorytmów? Jak twierdzi serwis Medium.com, to już się dzieje – produkcje z serii “Originals”, takie jak np. popularny House of Cards Netflix Originals tworzone są na podstawie analizy zachowanie widzów i dane empiryczne.

Za chwilę skończy się miejsce

Ludzie stali się informacyjnymi chomikami. Mało co jest usuwane, a niemal wszystko magazynowane, tylko inaczej. Zamiast po prostu przenosić nasze pliki na kolejne dyskietki, przesyłamy je do chmury. A gdzie dokładnie? Hyunjun Park z Catalogue uważa, że dla większości użytkowników nie ma to znaczenia, tak długo jak mają do nich dostęp.

W rezultacie pomysł, że pewnego dnia może nam zabraknąć miejsca na dane, jest tak trudny do zrozumienia, jak sugestia, że ​​może nam zabraknąć wody. – Kiedy myślimy o pamięci masowej w chmurze, myślimy o tych nieskończonych magazynach danych. Ale chmura to tak naprawdę komputer kogoś innego. Większość ludzi nie zdaje sobie sprawy, że generujemy tak dużo danych, że tempo, w jakim je generujemy, znacznie przewyższa nasze możliwości ich przechowywania. W bardzo niedalekiej przyszłości będziemy mieli ogromną lukę między danymi, które generujemy, a tym, jak możemy je przechowywać. 

Hyunjun Park, CEO z Catalogue, firmy zajmującej się przechowywaniem danych

Takim obrotem spraw nie martwią się firmy, które posiadają kompetencje analityczne, w ich przypadku apetyt na dane jest olbrzymi, a im ich więcej – tym lepiej. Czerpią pełnymi garściami z rewolucji świata Big Data, wyprzedzając swoich konkurentów i… oczekiwania klientów. Przetwarzając dane, skupiają się tylko na najświeższych informacjach, które odzwierciedlają realne preferencje klientów. Stare dane są nadpisywane przez nowe. To o wiele efektywniejsze rozwiązanie, które nie obciąża tak wirtualnych magazynów danych.

W przypadku reklamy online świeżość danych wpływa na skuteczność kampanii. Jeżeli dostawca utrzymuje stare dane, sprzed kilku miesięcy, bardzo prawdopodobne jest, że intencje zakupowe użytkowników dawno się zmieniły. Osoba, która poszukiwała butów do biegania w marcu, zapewne nie potrzebuje ich już po sezonie, a więc wykorzystanie nieaktualizowanych danych w reklamie online prowadzi do wyświetlania nietrafionych reklam i marnowania budżetów. Usuwanie i nadpisywanie danych nie tylko redukuje liczbę informacji, ale podnosi jakość usług w cyfrowym marketingu.

Kiedy więc zabraknie przestrzeni na serwerach, które przechowują dane? Jak podaje portal Statista, w 2024 wygenerujemy 159 zettabajtów, Park uważa, że do tego czasu będziemy w stanie przechowywać nie więcej jak około 12,5 procent z tego. Prowadzone są jednak badania nad technologiami, które pozwolą na realizowanie nowych sposobów kodyfikacji zapisu danych, np. wykorzystując ludzkie DNA, choć obecnie tworzenie syntetycznego DNA jest procesem powolnym i kosztownym, a więc nie jest jeszcze opłacalne komercyjnie.

Era łowców danych

W jaki sposób dynamicznie zwiększający się wolumen danych wpływa na pogłębienie wiedzy o użytkownikach internetu? Im więcej cyfrowych śladów generują internauci, tym bardziej precyzyjne profile można tworzyć dzięki wykorzystaniu algorytmów sztucznej inteligencji.

Maszyny zbierają pojedyncze informacje, jak odwiedzone strony, czas spędzony w serwisie czy język, i grupują konsumentów np. w segment osób zainteresowanych częściami samochodowymi czy użytkowników, którzy planują zakup nowego sprzętu audio do salonu. Następnie takiej grupie konsumentów wyświetlana jest spersonalizowana reklama – może odnosić się nie tylko do poszukiwanego produktu, ale również do zainteresowań kupujących.

Im zatem większy zbiór generowanych danych, tym większa wiedza o zachowaniu użytkowników online, a w ich przetwarzaniu i wyciąganiu wniosków pomaga sztuczna inteligencja. Człowieka ograniczają naturalne przeszkody – jak percepcja, koncentracja, siły witalne. W powtarzalnych czynnościach analitycznych systemy sprawdzają się doskonale.


Źródło: informacja prasowa Cloud Technologies 

Brief.pl - jedno z najważniejszych polskich mediów z obszaru marketingu, biznesu i nowych technologii. Wydawca Brief.pl, organizator Rankingu 50 Kreatywnych Ludzi w Biznesie.

BRIEF