Niski wskaźnik adopcji chmury w Polsce (ok 11.5% wg raportu Eurostat) to nie wynik braku wiedzy o jej zaletach – ta jest ogólnie dostępna i dobrze przyswojona. Problemem są przeszkody pojawiające się po decyzji, że chcielibyśmy do chmury zmigrować.
Zaczynają się już przy budżetowaniu kosztów nowego środowiska, kiedy posiadane data center “przecież dalej działa.” Organizacje podlegające zaostrzonym regulacjom (sektor finansowy, infrastruktura krytyczna) napotykają na kolejne przeszkody, które uniemożliwiają migrację albo czynią ją jeszcze bardziej kosztowną. Od wejścia w życie RODO każda decyzja o powierzeniu danych to kolejne godziny pracy działu compliance.
A jeśli uda się już rozpocząć migrację, zebrać zespół pracujący w środowisku chmurowym i uruchomić chmurowe aplikacje, wkraczamy na terytorium, gdzie ilość dostępnych usług liczona jest w dziesiątkach tysięcy, a model pracy całkiem inny niż ten, do którego przywykł dział IT.
Program Cloud Challengers zaczęliśmy w 2018 roku po to, aby łączyć tych, którzy dopiero mierzą się z przeszkodami, z tymi, którzy już je pokonali.
W tej edycji programu, na warsztatach odbywających się od lutego do czerwca, rolę mentorów przejęło sześciu spośród najbardziej uznanych architektów chmurowych Microsoft, którzy te przeszkody pokonali już w środowiskach o dużej skali: Tomasz Kopacz, Marek Pyka, Marcin Kucharski, Bartłomiej Graczyk, Kamil Stachowicz, Błażej Miśkiewicz.
„Kiedyś z danych wyciągaliśmy wiedzę - czyli jeszcze więcej danych. Teraz chcemy mądrości – czyli wskazówek jak dalej działać,” powiedział Marek Pyka, który przez najbliższe 5 miesięcy, razem z Bartłomiejem Graczykiem, będzie prowadził uczestników programu Cloud Challengers przez ścieżkę Data & AI.
O ile z gotowych narzędzi opartych na zaawansowanej analityce (na przykład autonomicznych samochodów albo narzędzi wizualizacji danych) można korzystać on-premise, o tyle wytrenowanie sieci neuronowej napędzającej te rozwiązania wymaga mocy obliczeniowej nieosiągalnej dla większości firmowych data centers.
Moc obliczeniowa to główny powód dlaczego sztuczną inteligencję rozwija się w chmurze. Drugim aspektem są gotowe komponenty środowiska AI, dostępne na platformach chmurowych. Razem dają Time To Market nieporównywalny do możliwości on-premise czy nawet IaaS. W tych ostatnich, TTM środowiska data scientist dochodzi do 3-4 miesięcy. W PaaS – stworzenie działającego środowiska zajmuje kwadrans.
Mimo to, polskich przedsiębiorców powstrzymują koszty, ryzyko związane z powierzaniem danych dostawcom i brak dostępu do specjalistów od data science i AI.
Na niektóre z tych przeszkód mają odpowiedź dostawcy. Zapotrzebowanie na data scientists mogą zmniejszyć gotowe usługi kognitywne, jak rozpoznawanie obrazu czy głosu, oraz rozwiązania dla business intelligence. Ryzyko związane z powierzaniem danych osobowych zewnętrznemu dostawcy adresuje budowa środowiska hybrydowego, gdzie dane są anonimizowane zanim trafią do algorytmu w chmurze.
Problem z utrzymaniem potrzebnego zespołu inżynierów to motyw przewodni współczesnego biznesu. Biznes polega często na programistach dla utrzymywania podstawowych procesów biznesowych i operacyjnych. Kiedy programisty zabraknie, pojawia się luka kompetencyjna, której zapełnienie zajmuje czas, w którym te procesy nie są rozwijane, a awarie naprawiane.
W firmach posiadających wieloletnie systemy, kiedy odchodzi ostatni developer lub admin, który potrafił je obsługiwać, dyrektor IT staje przed dylematem czy utrzymywać dług technologiczny i zatrudnić ludzi do jego modernizacji – np. przepisania na nowszy język i technologie, albo skonteneryzować je i zostawić następnemu pokoleniu developerów w niezmienionej postaci – czy też pozbyć się starego systemu i przemyśleć odbudowanie jego funkcji na nowo.
Wszystkie te wyzwania generują duże koszty, na które nie zawsze udaje się uzyskać dodatkowy budżet.
Istnieje jednak szereg usług i technologii, które minimalizują te wyzwania: automatyzacja, DevOps, PaaS, platformy do prostego pisania aplikacji przeznaczone dla nie-programistów (Power Apps). Część wyzwań może być także wyeliminowana dzięki umiejętnemu wykorzystaniu produktów z ekosystemu partnerskiego dostawcy. Takie produkty już wykorzystują chmurę i pozwalają znacznie przyspieszyć wdrożenie innowacyjnych rozwiązań.
Dobrze użyte, te rozwiązania mogą uwolnić czas developerów poświęcony na zadania operacyjne i pozwalają im zmaksymalizować czas poświęcony na rozwijanie produktów – o ile to jest to w czym są najlepsi.
Co jest złego w outsourcingu?
Jak powiedział Tomasz Kopacz podczas pierwszych warsztatów Cloud Challengers: „Nasze obawy przed outsourcingiem i vendor lock opierają się na założeniu, że uda nam się utrzymać własny zespół developerski, że development in-house jest pewniejszy.”
Jak zauważają Kamil i Tomasz – większość rozwiązań opiera się dziś na standardach przemysłowych. Tak naprawdę mówiąc o outsourcingu lub migracji, mówimy zazwyczaj o mapowaniu funkcjonalności pomiędzy środowiskami chmurowymi, nie o skomplikowanych migracjach pomiędzy niezgodnymi technologiami, jak miało to miejsce 15 lat temu. Baza PostgreSQL działa tak samo u każdego dostawcy, podobnie kontenery czy usługi strumieniowe. W Azure działa OpenShift czy Cassandra.
Tymczasem, to założenie prowadzi do szeregu problemów jak te wspomniane wyżej. W dalszych etapach programu Cloud Challengers, w ścieżce Application Innovation, razem z Tomkiem i Kamilem Stachowiczem przyjrzymy się metodom ich pokonywania i sprawdzimy, które podejście do modernizacji i rozwoju oprogramowania generuje największe oszczędności i wartość oraz najmniejsze ryzyko. Sprawdzimy czy nowy model wytwarzania oprogramowania – nie monolityczny, ale łączący technologie z róźnych źródeł – to nieunikniony etap ewolucji DevOps, czy też trend, który można przeczekać.
Zdaniem Marcina i Błażeja, przy ocenie opłacalności migracji do chmury, wiele firm niedoszacowuje kosztów swojej własnej infrastruktury on-premise. Chodzi tu przede wszystkim o koszty utrzymania serwerowni (np. rosnące ceny prądu, stanowiące często kilkadziesiąt procent kosztu utrzymania infrastruktury serwerowej), koszty wynagrodzenia i szkolenia pracowników potrzebnych do utrzymania własnego/dzierżawionego „data center”. Równie często przeszacowywany jest potencjalny koszt chmury poprzez niewłaściwy dobór (w rozumieniu zarządzania pojemnością i wydajnością) elementów infrastruktury. Po macoszemu traktowane są również mechanizmy które mogą obniżyć koszty wykorzystania chmury nawet o kilkadziesiąt procent, np. trzyletnia rezerwacja maszyn czy stosowanie inteligentnego kalendarza wyłączeń.
Jednym z pierwszych etapów, przez który trzeba przejść, myśląc o adopcji chmury, jest zbudowanie business case’u, w ramach którego można policzyć TCO i oszacować Time To Market. Możliwość szybkiego osiągnięcia korzyści biznesowych to jeden z najważniejszych powodów, dla którego firmy wybierają chmurę publiczną. Jeśli po tym pierwszym etapie chmura okaże się dobrą decyzją z punktu widzenia biznesu, następnym etapem planowania adopcji powinna być analiza ryzyka, wybór i wdrożenie kontroli bezpieczeństwa wymaganych przez regulatora a w końcu – przeszkolenie kadr do pracy z chmurą.
Kick-off programu Cloud Challengers z dyrektorami IT pokazał potrzebę zaadresowania wielu wyzwań administracji infrastrukturą chmurową – m.in.: narzędzia wspierające liczenie i porównanie TCO w środowisku on-prem i chmurowym, modele referencyjne przy projektowaniu architektury rozwiązania i planowaniu migracji do chmury, bezpieczeństwo budowanego rozwiązania w kontekście wymagań regulatorów oraz budowa infrastruktury w modelu „Infrastructure-as-a-code”.
Na warsztatach Marcin Kucharski i Błażej Miśkiewicz stawią czoła tym wyzwaniom, pokazując na praktycznym przykładzie jak w 3 godziny zaplanować i wdrożyć infrastrukturę chmurową (hybrydową) dla funkcjonalnego prototypu firmy car-sharingowej (działającej w modelu pay-as-you-drive).
Ile z powodów unikania chmury przez polskie organizacje to wymówki, aby uniknąć inwestycji czasu i budżetu w migrację? Ile migracji powstrzymują uprzedzenia, niechęć do zmian i uleganie naciskom adminów on-premise?
Czy może rację mają ci, którzy twierdzą, że chmura publiczna jest zbyt droga, zalety przereklamowane, a regulacje nie do przejścia?
Od lutego do czerwca będziemy badać tę sprawę razem z CIOs i managerami IT uczestniczącymi w warsztatach Cloud Challengers. Jeśli chcecie uczestniczyć w tych dochodzeniach, rozwiać własne wątpliwości i poznać realne rozwiązania swoich wyzwań, zapraszamy do zgłoszenia chęci udziału w programie:
Marszałkowska 18 lok 5
00-590 Warszawa
office@degroup.pl