Deloitte: Uporządkowane dane pozwolą liderom podejmować skuteczne decyzje w czasie rzeczywistym

Deloitte dane

Skradzione dane uwierzytelniające są przyczyną ponad jednej czwartej przypadków naruszenia bezpieczeństwa firmy. Dlatego, jak przewidują eksperci Deloitte, w ciągu najbliższych dwóch lat zmieni się rozumienie bezpieczeństwa w sieci. Trzy z dziewięciu trendów technologicznych opracowanych w najnowszym raporcie firmy doradczej „Tech Trends 2021” to rozpowszechnienie filozofii „zero trust”, metodologii MLOps oraz zarządzania danymi w taki sposób, aby mogły z nich korzystać maszyny.

Rewolucja w danych to jeden z dziewięciu Trendów Technologicznych 2021 prognozowanych przez Deloitte

O wyborze najnowszych trendów technologicznych decydowały informacje uzyskane od zarządów firm, które obsługujemy, dotyczące bieżących i przyszłych priorytetów, prognozy i analizy, sporządzone przez naukowców, i w końcu plany oraz priorytety inwestycyjne wiodących startupów, funduszy venture capital i dostawców technologii. Zebrane przez ekspertów Deloitte informacje pokazują, w jak nieoczekiwany sposób kryzys COVID-19 wymusił zmiany. Coraz więcej organizacji we wszystkich sektorach przyspiesza proces transformacji cyfrowej, nie tylko po to, by zwiększyć szybkość i efektywność swoich działań, ale także po to, by reagować na gwałtowne wahania popytu i oczekiwań klientów.

Daniel Martyniuk, partner, lider zespołu strategii i transformacji IT w Deloitte

Od chałupniczych metod do precyzji inżyniera

Ponieważ uczenie maszynowe (ML – machine learning) i sztuczna inteligencja (AI – artificial intelligence) stają się kluczowymi czynnikami wpływającymi na wydajność organizacji, kierujący przedsiębiorstwami zaczynają zdawać sobie sprawę z konieczności przyspieszenia wdrażania tych rozwiązań. Zazwyczaj modele te są tworzone i wdrażane przy użyciu ręcznych, niestandardowych, trudnych do skalowania procesów, które uniemożliwiają eksperymentowanie i utrudniają współpracę zespołów produktowych z działem IT i specjalistami od analizy danych. Inaczej mówiąc, infrastruktura przedsiębiorstwa nie jest zaprojektowana w sposób umożliwiający szybkie, spójne i sprawne tworzenie modeli uczenia maszynowego.

Rozpowszechnienie metodologii MLOps, czyli Machine Learning Operations, jest ważnym tematem najnowszego raportu „Tech Trends”. Z naszych obserwacji wynika, że firmy coraz częściej będą przechodziły z „chałupniczego” wdrażania rozwiązań sztucznej inteligencji i uczenia maszynowego do metodyki zautomatyzowanej i usystematyzowanej, która pozwoli zespołom IT, data science i działom operacyjnym efektywniej wdrażać i monitorować takie rozwiązania. To zapewni organizacjom możliwość szybkiej reakcji i podejmowania trafnych decyzji.

Agnieszka Zielińska, partner w dziale Doradztwa Finansowego, Deloitte

Aby zintegrować AI i ML ze wszystkimi procesami i systemami w organizacji, firmy muszą być w stanie wdrażać je w sposób ustandaryzowany i na dużą skalę.

Dwadzieścia lat temu, podobne wyzwania doprowadziły do narodzin DevOps – metody tworzenia oprogramowania opartej na komunikacji i współpracy deweloperów ze specjalistami od eksploatacji.
Poprzez standaryzację i automatyzację tworzenia, wdrażania i zarządzania aplikacjami, DevOps zmienił sposób, w jaki wiele zespołów IT tworzy i wdraża oprogramowanie, umożliwiając im poprawę jego wydajności i jakości.

MLOps to podejście, które łączy i automatyzuje rozwój oraz utrzymanie modeli uczenia maszynowego, mając na celu przyspieszenie całego procesu jego cyklu życia. Poprzez przyspieszenie etapu eksperymentowania i tworzenia modeli, ułatwiając ich monitorowanie oraz zarządzanie wymogami regulacyjnymi, MLOps pomaga firmom zwiększać wartość biznesową. Oczekuje się, że do 2025 roku wartość rynku MLOps wzrośnie do prawie 4 mld dolarów.

Rewolucja w danych

Okazuje się, że do podejmowania decyzji w oparciu o sztuczną inteligencję, tradycyjne sposoby organizowania danych nie wystarczą.

Coraz więcej firm, które w sposób pionierski wykorzystują sztuczną inteligencję, zauważa nieprzystawalność struktur i modeli danych do nowych technologii nastawionych na podejmowanie decyzji przez maszyny. Do tej pory te struktury skrojone były pod typowo ludzki sposób myślenia. Spodziewamy się, że coraz więcej przedsiębiorstw zacznie aktywnie mierzyć się z tym wyzwaniem.

 Aneta Olędzka, manager w zespole analityki i kognitywistyki, Deloitte

Jednym z trendów, jakie będziemy obserwować w ciągu najbliższych dwóch lat, jest opracowanie nowego podejścia do zarządzania danymi pod kątem wykorzystania ich przez algorytmy uczenia maszynowego, a nie przez człowieka.

Ludzie mają tendencję do patrzenia na zagregowane dane charakteryzujące się dwoma lub trzema głównymi czynnikami. W obliczu bardziej złożonych danych wielu ma trudności z ich przetworzeniem i podjęciem decyzji. Modele uczenia maszynowego potrafią wydobyć niskie poziomy istotności statystycznej z ogromnych ilości ustrukturyzowanych i nieustrukturyzowanych danych.

W badaniu Deloitte State of AI in the Enterprise, respondenci pytani o najważniejszą inicjatywę mającą na celu zwiększenie ich przewagi konkurencyjnej dzięki sztucznej inteligencji, odpowiadali „modernizacja naszej infrastruktury danych dla AI”. Dla firm, które są na wczesnym etapie cyfryzacji stawka jest szczególnie wysoka. Przedsiębiorstwa zaawansowane cyfrowo, często nieobciążone długiem technologicznym, z nowymi modelami danych i możliwościami ich przetwarzania, szybciej dzięki nim zaczynają odnosić korzyści finansowe.

Zero zaufania, czyli o bezpieczeństwie inaczej

Konwencjonalne modele cyberbezpieczeństwa okazują się niewystarczające, by sprostać wciąż zmieniającym się cyberzagrożeniom, zwłaszcza w obliczu nieustannie ewoluujących modeli biznesowych i dynamicznie zmieniającej się siły roboczej. Wraz z rosnącą liczbą systemów opartych na chmurze, pracowników zdalnych i wielości urządzeń podłączonych do sieci firmy, stale przesuwają się granice bezpieczeństwa. Przewidywany rozwój inteligentnych urządzeń, 5G, edge computing i sztucznej inteligencji zapowiada dodatkowe powiększenie powierzchni potencjalnego ataku.

To nie jest kolejny odcinek „Z Archiwum X”. „Zero trust” jest filozofią, która powoduje zmianę podejścia do rozumienia tego, czym jest bezpieczeństwo sieci. Wiemy, że większość zabezpieczeń jest trudna do złamania z zewnątrz, natomiast od środka dostęp do większości zasobów jest praktycznie nieograniczony. W ramach najnowszego raportu „Tech Trends” zwracamy uwagę na to, że istnieje konkretny zestaw zarówno zabezpieczeń, jak i czynności czy koncepcji, które należałoby wdrożyć, aby w odpowiedni sposób zabezpieczyć organizację. Adam Rafajeński, dyrektor w zespole cyberbezpieczeństwa, Deloitte

Zabezpieczenia zewnętrzne kładą nacisk na uwiarygodnianie użytkowników i urządzeń podłączonych do sieci organizacji. Dlatego kradzież danych uwierzytelniających jest przyczyną ponad jednej czwartej przypadków naruszenia bezpieczeństwa. Tymczasem właściwie zaprojektowana architektura „zero zaufania” jest podstawą skutecznej kontroli i zarządzania dostępami użytkowników, zmniejszając przy tym koszty operacyjne i wspierając skalowanie do dziesiątek tysięcy użytkowników. Podobnie wprowadzanie pracowników, kontrahentów, dostawców usług w chmurze i innych dostawców może stać się bardziej wydajne, elastyczne i bezpieczne.

Starannie zaprojektowane architektury „zero zaufania” mogą współdziałać z innymi zautomatyzowanymi praktykami IT, takimi jak DevSecOps i NoOps. Kluczowym elementem tej filozofii jest mikrosegmentacja sieci, danych, aplikacji, obciążeń i innych zasobów na indywidualne jednostki w celu ograniczenia naruszeń i zapewnienia kontroli bezpieczeństwa na najniższym możliwym poziomie. Ograniczenie dostępu w oparciu o zasadę najmniejszych uprawnień sprawi, że minimalna liczba użytkowników będzie mogła używać określonych danych i aplikacji.

Dzięki usunięciu założenia o zaufaniu z architektury bezpieczeństwa i wprowadzeniu uwierzytelniania każdego działania, użytkownika i urządzenia, zasada „zero zaufania” pomaga stworzyć solidniejszą i bardziej odporną podstawę bezpieczeństwa. Korzyści organizacyjne uzupełnia znaczący atut dla użytkowników końcowych: bezproblemowy dostęp do narzędzi i danych niezbędnych do wydajnej pracy.

Eksperci Deloitte zapraszają na kolejny z cyklu webinarów prezentujących najnowsze Trendy Technologiczne 2021. Tym razem, opowiedzą o nowych rozwiązaniach, umożliwiających optymalizację procesów rozwoju i przetwarzania danych w celu optymalizacji działania algorytmów uczenia maszynowego oraz o cyberrewolucji spowodowanej brakiem zaufania.

Webinar odbędzie się w najbliższy piątek, 12 lutego o godz. 10:00.
Link do rejestracji znajduje się tutaj
Raport do pobrania znajduje się tutaj

Wideokomentarz Agnieszka Zielińskahttps://youtu.be/3g95GM4rU4w
Wideokomentarz Aneta Olędzkahttps://youtu.be/qyVYxO4AiPk
Wideokomentarz Adam Rafajeńskihttps://youtu.be/hxzBrofGmNo


Źródło: Clear Communication Group

Brief.pl - jedno z najważniejszych polskich mediów z obszaru marketingu, biznesu i nowych technologii. Wydawca Brief.pl, organizator Rankingu 50 Kreatywnych Ludzi w Biznesie.

BRIEF