Zapisz się na newsletter EY Technology
Otrzymuj comiesięczny zestaw najciekawszych artykułów, raportów i analiz z zakresu technologii dla biznesu.
Ci, którzy jako pierwsi weszli w używanie chmury w mądry sposób – nie tylko na poziomie infrastruktury, lecz także oprogramowania – zyskali przewagę konkurencyjną. Podziwiam zresztą klientów, którzy wykorzystali moment pandemii COVID-19 na przeprowadzenie takiej zmiany. W efekcie znacząco wzrosła również pozycja IT.
Firmy, które w pełni zdigitalizowały procesy w szczycie pandemii, dziś mają dostęp do informacji o każdym z nich w sposób w pełni cyfrowy. To stwarza nowe możliwości działania. Ludzie, którzy dotąd zajmowali się wszystkimi procesami manualnie, teraz widzą, że z pomocą IT, wykorzystując zasoby chmurowe i koncepcję Low Code, mogą szybko zautomatyzować całe procesy lub poszczególne ich elementy. Mając szczegółowe dane na temat ich przebiegu, mogą je też kompleksowo optymalizować.
Podobnie jak ćwierć wieku temu nastąpiło przejście z systemów rozproszonych do absolutnie scentralizowanych, np. w bankowości, tak dziś chmura umożliwia analogiczny przeskok. Co ważne, model cloud computing sprawia, że funkcja IT przybliża się do biznesu.
Czy mamy do czynienia z rewolucją w zakresie znaczenia IT w organizacjach biznesowych?
W pewnym sensie tak. Podobnie jak ćwierć wieku temu nastąpiło przejście z systemów rozproszonych do absolutnie scentralizowanych, np. w bankowości, tak dziś chmura umożliwia analogiczny przeskok. Co ważne, model cloud computing sprawia, że funkcja IT przybliża się do biznesu. Bez względu na to, czy mówimy o jednej platformie, czy wielu, na koniec dnia z każdą działa się bardzo podobnie. W chmurze dostępne są komponenty, które pozwalają nawiązać dialog z użytkownikami biznesowymi i pokazać im, jakie rozwiązania można bardzo szybko zbudować.
Widać też, że w ostatnich latach nieprawdopodobnie upowszechniło się zwinne podejście w relacjach pomiędzy biznesem i IT. Jest to naturalna zmiana, ponieważ rozwiązania technologiczne stają się fundamentem, dzięki któremu organizacja może się rozwijać. Z drugiej strony przedsiębiorstwa są coraz bardziej świadome dostępnych dziś możliwości i nie chcą czekać latami na efekty realizowanych projektów.
Jakich obszarów dotykają tego typu pionierskie projekty biznesowo-technologiczne?
Najwięcej inwestycji widać w obszarach powiązanych z klientami. Chodzi o to, aby klienta – który szuka nowych pomysłów na oszczędzanie – zrozumieć, a potem dostosować własne produkty do jego potrzeb.
Realizowane powszechnie projekty mają na celu to, aby technologicznie doprowadzić do jak najlepszej interakcji z tymże klientem na każdym kroku. To oznacza, że coraz większe środki przeznaczane są na digitalizację portali, hiperpersonalizację usług oraz dane, które za tym idą. Wewnątrz firm, od strony finansów i operacji, widać z kolei ruch mający na celu gromadzenie jak największej ilości danych o nabywcach. Organizacje chcą na ich podstawie podejmować decyzje, zarówno na poziomie strategii, jak i każdej interakcji sprzedażowej.
Kilka lat temu dominowało podejście produktowe. Organizacje wymyślały produkt i wokół niego budowały strategię działania. Dziś, w związku z tym, że widać czego oczekują nabywcy i że coraz łatwiej zobaczyć trendy na styku z klientem końcowym, działa to w drugą stronę. Organizacje masowo zbierają informacje o tym, co się sprzedaje i dużo szybciej dostosowuje się produkty, co oczywiście wpływa również na systemy, które mają tymi produktami zarządzać.
Czy to duża zmiana?
Bardzo duża! Jeszcze kilka lat temu dominowało podejście produktowe. Firmy wymyślały produkt i wokół niego budowały strategię działania. Dziś, w związku z tym, że widać czego oczekują nabywcy i że można coraz łatwiej zobaczyć trendy na styku z klientem końcowym, działa to w drugą stronę. Organizacje masowo zbierają informacje o tym, co się sprzedaje i dużo szybciej dostosowuje się produkty, co oczywiście wpływa również na systemy, które mają tymi produktami zarządzać. Zachowania klientów zmieniają się jednak na tyle szybko, że klientocentryczność stała się celem dla wielu firm. Technologia jest najbardziej potrzebna właśnie w tym obszarze.
Najszybciej takie zmiany wprowadza dziś sektor handlu detalicznego. Krok w tym samym kierunku robi branża finansowa oraz telekomunikacyjna. Szybko zmieniają się też gracze, o których do niedawna nie pomyślelibyśmy w kontekście klientocentryczności. Mam tu na myśli m.in. energetykę, windykację, ubezpieczenia, gdzie podejście skupione na potrzebach klienta stało się niezbędne.
Z drugiej strony, firmy, które pozostały przy produktowym podejściu do rzeczywistości, rzadko sięgają po nowe technologie. Niektóre z nich nie mogą przeprowadzić takiej zmiany, co wynika z kilku czynników. Nie pozwala na to sytuacja rynkowa w ich branży, kadra zarządzająca nie przeszła jeszcze na podobne myślenie albo po prostu zbyt wolno realizują zmiany zmierzające do tego, aby cała infrastruktura techniczna i biznesowa była nastawiona na klientocentryczność.
Na jakim etapie wdrażania koncepcji organizacji opartych na danych są dziś polskie firmy?
Można powiedzieć, że coraz śmielej eksperymentują z danymi. Jestem jednak zdziwiony jak daleko jesteśmy jeszcze od momentu, kiedy dane będą osią działania irm. Prawdziwych Data Driven Organizations jest naprawdę mało. Równocześnie narzędzi, które na to pozwalają, jest z drugiej strony nieskończenie wiele.
Od 2–3 lat zaczyna zmieniać się sposób myślenia o danych i możliwościach ich operacjonalizacji. Faktem jest, że ten model nie jest prosty do wdrożenia. Przede wszystkim trzeba zebrać dane, ujednolicić je i zapewnić ich wiarygodność. Ponownie królują tu te organizacje, które sprawnie przeszły na chmurę, zbierają dane w sposób masowy i rozproszony, ale zaczynają wyciągać wnioski, nie czekając, aż wszystkie dane zostaną scentralizowane.
Prawdziwy przeskok w kierunku faktycznej operacjonalizacji danych jest jeszcze przed nami. W modelu tym chodzi przecież o to, aby wszystkie decyzje od szczebla kierowniczego w górę były podejmowane na podstawie faktycznych, rzetelnych i wiarygodnych danych.
Mamy kilku klientów, którzy poszli w tym kierunku. Ich wyniki są niesamowite. Podejmują decyzje, które okazują się dobre, choć bardzo często są absolutnie nieintuicyjne. Zbierają jednak też dane o tym, jak ich organizacje funkcjonują wewnątrz – weryfikując działanie pracowników, procesów i systemów. Łącząc te dwa obszary, szybko zyskują przewagę nad konkurentami.
Zachęcałbym każdego klienta do tego, aby spojrzał na to, czy dobrze łączy oba światy – wewnętrzny i zewnętrzny – i czy jest w stanie podejmować decyzje, które są dobre z obu tych obszarów. To bardzo ważne szczególnie na polskim rynku, gdzie mamy praktycznie zerowe bezrobocie. Istotny jest właściwy balans między tym, co ważne dla klienta a tym, co pozostaje kluczowe dla pracowników.
W jaki sposób sytuacja na rynku pracy w IT wpłynęła na możliwość realizacji, opartych na technologii, innowacji biznesowych?
Ogromne zapotrzebowanie na specjalistów IT znacząco zmieniło tę branżę w ostatnich latach. Płace poszły do góry, więc coraz trudniej było o dobrych specjalistów. Nadal jest trudno, choć stopniowo się to zmienia. Jednocześnie, w związku z globalnymi niedoborami, wielu najlepszych i najbardziej doświadczonych polskich inżynierów IT pracuje w firmach zachodnich.
Z drugiej strony, pomysłów na użycie IT w każdej organizacji jest więcej niż możliwości. Trzeba je ważyć i bardzo mądrze podchodzić do tego, jak wydajne jest działanie. Z punktu widzenia konsultingu technologicznego widać, że w wielu miejscach CIO inwestują w zwiększenie wydajności zespołu IT. To jest racjonalna droga.
Użycie narzędzi, które sztuczną inteligencją wspierają działanie deweloperów, potrafi np. zwiększyć ich wydajność o nawet 40%. Mam tu na myśli narzędzia wbudowane w środowiska deweloperskie. Pozwalają one na sprawniejsze i masowe kompilowanie kodu, a także doprowadzenie do tego, żeby działanie konkretnych zespołów było jak najszybciej widoczne na produkcji. W EY mamy liczący prawie 100 osób zespół, który doradza klientom, jak zoptymalizować działanie IT, aby mogło ono dostarczać więcej wartości odbiorcom wewnętrznym.
Jednak w ostatnich latach wielu projektów IT nie realizowano, ponieważ to właśnie ten obszar był wąskim gardłem. Dochodzimy tu do koncepcji Low Code/No Code, która stanowi dobry sposób na to, aby IT i biznes wreszcie pracował na jednej platformie. Proste działania na poziomie raportów, integracji czy przepływów można dziś w całości budować na podstawie tych aspektów. Natomiast bardziej zaawansowane zadania realizować przy wsparciu IT. Koncepcja Low Code pozwala też na zmianę zasad współpracy IT z biznesem. Zgodnie z nią użytkownicy biznesowi mogą samodzielnie prototypować oczekiwane rozwiązanie, zbudować mockup zapewniający 80% funkcjonalności i zaangażować specjalistę IT, aby przekuł to w produkcyjne narzędzie. Taki model współpracy to przełom!
Czy to oznacza, że biznes będzie mógł samodzielnie zacząć projekt budowy nowego rozwiązania i sięgnąć po wsparcie IT, aby je doszlifować?
Dokładnie tak. Co ważne, IT zadba o to, aby takie rozwiązanie było wydajne i bezpieczne. W Stanach Zjednoczonych jest to ogromny trend. W takim modelu tworzone są nawet rozwiązania dla klientów, budowane w oparciu o mocne, osadzone w chmurze narzędzia. Biznes prototypuje, a równolegle – w myśl koncepcji zwinnej – IT włącza się i wspólnie, szybko obie strony dostarczają rozwiązanie, wyprzedzając konkurencję.
Na jakim jesteśmy etapie drogi do powszechnego wykorzystania sztucznej inteligencji w polskich firmach?
Wiele organizacji już przekonało się co do tego, że muszą wejść do tej rzeki, ale wymaga to uporządkowania warstwy danych. Doprowadzenie do tego, aby niezbędne – do optymalnego użycia AI – dane były odpowiednio ułożone w całej firmie jest bardzo istotne.
W EY mamy w tym obszarze ciekawe doświadczenia. Kilka lat temu zbudowaliśmy wewnętrzny zespół, który pokazuje możliwości, jakie daje AI i mobilizować do tego, by z nich korzystać. Przykładowo, możemy użyć sztucznej inteligencji do masowego rozpoznawania informacji z dokumentów i wyciągania wniosków na podstawie tego, co z nich wynika. Możemy też zmienić sposób interakcji naszych zespołów pomiędzy poszczególnymi etapami wewnętrznych procesów, tak aby zmniejszyć ich pracochłonność.
Robimy to wewnętrznie, podobnie jak robią to nasi klienci. Największą barierą pozostają jednak dane, a konkretnie ich jakość. Sztuczna inteligencja w biznesie będzie tak dobra, jak dobre będą dane, które uda się zebrać. Co ważne, do potencjału AI trzeba podchodzić z ostrożnością, analizować wyniki oraz ich zgodność z celami biznesowymi.
Sztuczna inteligencja w biznesie będzie tak dobra, jak dobre będą dane, które uda się zebrać. Co ważne, do potencjału AI i trzeba podchodzić z ostrożnością, analizować wyniki oraz ich zgodność z celami biznesowymi
Michał Kopyt
EY Polska, Partner w dziale Doradztwa Biznesowego, Lider Doradztwa Technologicznego w EY
Jakie są najciekawsze scenariusze użycia AI w zastosowaniach biznesowych?
Imponujące są dziś zastosowania AI, które pozwalają podpowiadać klientom następną ofertę na podstawie tego, jakie działania podejmuje. Dane o klientach można łatwo zbierać i na ich podstawie wnioskować. Oparte na AI silniki decyzyjne są bardzo silne i pokazują, że można zmniejszyć obciążenie zespołów marketingu i sprzedaży o kilkadziesiąt procent.
Większa liczba organizacji, które obsługują masowych klientów, już zaczęła działać z większym poziomem hiperpersonalizacji, ale nadal większość decyzji podejmują ludzie. Wdrożenie dobrego silnika do hiperpersonalizacji oraz takie jego zoptymalizowanie, aby przynosił wartość, to duży wysiłek dla firm. Po pierwsze, trzeba doprowadzić do tego, by dane klientów były w chmurze, co nie jest oczywiste dla większości organizacji. Po drugie, oddać sztucznej inteligencji stery interakcji z klientami.
Od dłuższego czasu staramy się rozszerzać wiedzę na temat hiperpersonalizacji. W tym roku w Polsce ruszyły pierwsze projekty w tym obszarze. Zachód jest kilka lat przed nami. Myślę jednak, że rok 2024 będzie momentem, kiedy powszechnie usłyszymy, że jakiś bank, operator i firma handlowa wykonały krok w stronę używania AI do hiperpersonalizacji. Ci, którzy zrobią to najlepiej, będą mieli naprawdę ogromną przewagę nad konkurentami.
W innych obszarach organizacje dysponują zbyt ograniczonymi zbiorami danych. Niezbędne staje się nauczenie ludzi, że dane są ważne, a wszystkie działania mają generować informacje, które potem można wykorzystać. Kolejny aspekt to kwestia ludzka. AI w oczywisty sposób doprowadza do tego, że potrzebne będzie mniej miejsc pracy związanych z prostymi czynnościami.
Trzeba doprowadzić do tego, aby ludzie, którzy dziś wykonują tego rodzaju zadania, mieli możliwość doszkolenia się i takiego wykorzystania sztucznej inteligencji, aby ich praca stanowiła wartość dla firmy. W sytuacji starzenia się społeczeństwa to jedyna droga.
Co decyduje o powodzeniu projektów cyfrowej transformacji?
Ważne jest to, aby skłonić IT do myślenia, że nie jest funkcją usługową. Najważniejszych zaś decydentów po stronie biznesu nastawić na to, że z IT wiąże się budowanie wartości, która na koniec dnia przekłada się pozytywnie na wyniki firmy.
To podejście dalekie od tradycyjnego postrzegania IT w roli centrum kosztowego…
Tak. IT musi być centrum przychodowym. Aby było to jednak realne, niezbędne jest zwiększenie roli CIO oraz zmiana sposobu pracy w ramach organizacji. Konieczne jest, aby zarząd wiedział, że ma pod ręką narzędzie, które może mu dać przewagę konkurencyjną. Tym narzędziem jest technologia, wykorzystywana w przemyślany sposób w całej firmie.
Chodzi o to, aby wiedza o tym, jakie rozwiązania są możliwe – i jak ich użyć – była propagowana od poziomu zarządu w dół, a decyzje podejmowane w całej organizacji zawsze uwzględniały ten aspekt. Wszystkie programy cyfrowej transformacji, jakie realizujemy, owszem, polegają na tym, że wdrażamy rozwiązania technologiczne, ale także pokazujemy możliwości technologii i podpowiadamy klientom, jakie decyzje trzeba podjąć, aby to wszystko działało.
O powodzeniu projektów cyfrowej transformacji w Polsce często decydują też aspekty prawne oraz cybersecurity. Oba te obszary muszą podążać za technologią i zmianami biznesowymi. Wiele przedsiębiorstw o tym zapomina. Przechodząc do chmury, musimy przeprowadzić projekt, w którym zgramy dane z całej firmy i połączymy pomysły biznesowe z możliwościami IT. Na koniec dnia zbudowane w ten sposób rozwiązanie musi być odporne na różnego rodzaju ataki. a także dostosowane do szybko zmieniających się regulacji.
Prowadzimy wiele naprawdę dużych inicjatyw, które obejmują wszystkie aspekty, o których wspomniałem. Zmieniamy sposób interakcji między biznesem a technologią. W tym procesie dbamy jednak również o kwestie prawne czy cybersecurity na poziomie wystarczającym do tego, by każde rozwiązanie można było szybko wdrożyć na produkcję bez obaw o problemy związane z bezpieczeństwem.
Wróćmy do cyfrowej transformacji. Mało powiedzieliśmy o samej technologii…
Najważniejsze staje się doprowadzenie do możliwości lżejszego używania technologii przez biznes. W naturalny sposób najważniejszym trendem staje się model chmury obliczeniowej, niekoniecznie publicznej. Ciągle istnieją organizacje, które nie mogą w pełni wykorzystać infrastruktury współdzielonej. Dla nich rozwiązaniem jest chmura prywatna wyposażona w dużą ilość maksymalnie reużywalnych komponentów.
Wyzwaniem staje się zapewnienie, aby IT nadal było wydajne kosztowo. Dowolną aplikację można przenieść do chmury w takiej formie, w jakiej jest i pozbyć się problemu wydajności. Powyższe podejście oznacza jednak znacznie wyższe koszty. Nauczenie się jak optymalizować oprogramowanie tworzone z myślą o chmurze, a potem zarządzanie budżetem jest właściwym podejściem. Dotyczy to zarówno negocjacji z poszczególnymi dostawcami usług chmurowych, jak i umiejętności używania najlepszych komponentów dostępnych w ramach głównych platform. To zmiana bardzo ważna, a także wymagająca modyfikacji sposobu myślenia o rozwoju środowiska aplikacyjnego.
W kontekście samego IT, niezbędna jest mentalna zmiana, wyjście z myślenia „sam zbuduję coś dla mojego biznesu i to będzie najlepsze” na rzecz zebrania informacji ze świata, kupowania potrzebnych komponentów w formie usługowej oraz umiejętności mądrego ich poukładania. Jeśli taka zmiana nastąpi – a jest całkiem dużo organizacji, które robią to właściwie – wówczas biznes zaczyna wierzyć, że IT nie jest zatkane przez kolejkę rzeczy do zbudowania i śmiało przynosi nowe pomysły, które wspierają rozwój firm. Oznacza to jednak globalizację zakupów technologicznych, a także zwiększenie zagrożenia w obszarze bezpieczeństwa.
Ważne jest korzystanie z międzynarodowych zasobów, jeśli chodzi o dostępność konsultingu. Jestem pod dużym wrażeniem tego, jak dużo wiedzy – często jeszcze niewykorzystywanej w Polsce – jest zbierane w ramach naszej firmy. Z perspektywy CIO warto być ciekawym tych możliwości postrzegać konsultantów, jako tych specjalistów, którzy mogą podpowiedzieć, jakie powinny być następne kroki rozwoju technologii w biznesie.
W jakim kierunku warto zatem rozwijać kompetencje zespołów IT?
Generalnie kompetencje kadry w zakresie budowania rozwiązań IT trzeba przekierować na szeroko rozumiane analizy i składanie dużych komponentów z mniejszych klocków, a co za tym idzie – dużo szybsze dostarczanie rozwiązań dla biznesu. To niesamowicie ciekawe czasy.
Najbliższe 3 lata przyniosą zapewne podobną dynamikę rozwoju IT co okres pandemii COVID-19. Wówczas musieliśmy bardzo szybko podejmować decyzje, które zapewniały choćby minimalne wsparcie biznesu ze strony IT. Dziś pada pytanie: co jeszcze można zrobić?
Jest też inny, często pomijany trend. Mało mówi się jeszcze o przetwarzaniu kwantowym. Tymczasem największe organizacje już planują wykorzystanie Quantum Computing w konkretnych scenariuszach biznesowych. Faktem jest, że istnieją obszary, gdzie nie da się przeskoczyć bariery obliczeniowej, używając obecnych technologii. Zastosowanie komputerów kwantowych stworzy ogromne szanse dla firm, które wykorzystają te rozwiązania jako pierwsze.
Wszystko, co pozwoli uporządkować użycie danych pod kątem klienta, a potem zautomatyzować każdy obszar działalności będzie kluczowym trendem na najbliższe lata. Reszta staje się narzędziem umożliwiającym przeprowadzenie takiej zmiany.
Wróćmy do trendu chmurowego. Czy projekty mające na celu optymalizację wykorzystania zasobów cloud computing są dziś powszechne?
Jeszcze nie, ale zaczynamy realizować coraz więcej takich projektów. Jest to pochodna efektu skali w zakresie wykorzystania usług chmurowych. Wydajność aplikacji w chmurze była do tej pory często pomijana, dopóki klienci nie zobaczyli, ile to kosztuje. Jedną z ogromnych zalet modelu chmury jest to, że można przez jakiś okres zmniejszyć użycie aplikacji i ograniczyć koszty. W EY mamy framework, który pozwala klientom optymalizować używanie chmury.
A co z firmami, które dopiero rozważają przejście do chmury?
Tam gdzie istnieją trudne środowiska aplikacyjne, warto pilnować okresów, w których wypadałoby wychodzić ze starych technologii. Na polskim rynku ciągle szeroko używane są stare bazy danych i systemy operacyjne. Tymczasem już teraz brakuje talentów potrzebnych do zapewnienia sprawnego działania takich rozwiązań. To ostatni moment na wyjście z przestarzałych technologii. Ich wykorzystanie stanowi też barierę choćby dla wdrażania koncepcji organizacji opartych na danych.
Podsumowanie
Wywiad w ITWIZ z Michałem Kopytem, który z Piotrem Waszczukiem rozmawiał o zmianach w podejściu do nowych technologii, rewolucji w relacjach między biznesem oraz IT, operacjonalizacji danych, znaczeniu chmury obliczeniowej dla zwinnego dostarczania nowych produktów i usług, hiperpersonalizacji, a także faktycznych możliwościach wykorzystania AI oraz roli konsultingu technologicznego w procesie cyfrowej transformacji biznesu.
Artykuł pierwotnie ukazał się w serwisie itwiz.pl w dn. 12 lipca 2023 roku.
#Drive2Cloud - zaplanuj podróż do chmury
Poznaj program, który zapewni wsparcie na drodze do chmury, wpływając na zwiększenie wartości i osiągnięcie lepszej pozycji biznesu w wyścigu z konkurencją.