Wyzwania w budowaniu świadomości i zarządzaniu AI w dużej organizacji

20.06.2022 | Ewelina Kamińska

Wstęp

Wykorzystywanie danych do podejmowania decyzji stało się praktyką w wielu firmach. Przyczyniło się to do rozwoju działów analitycznych, technologii analitycznych, narzędzi do przetwarzania danych i ich wizualizacji, rozwoju kompetencji w ramach takich stanowisk jak data analyst czy business analyst.

W działach i zespołach, gdzie takie podejście się sprawdziło, uwaga zaczęła przesuwać się w kierunku wykorzystania kolejnych zdobyczy technologii – sztucznej inteligencji, w tym algorytmów uczenia maszynowego.
Organizacje, które mają przykład zespołów „którym się udało” nabierają apetytu, aby skalować AI na inne zespoły i projekty.

Wtedy zaczynają się pojawiać wyzwania, ponieważ AI staje się nie tylko technologicznym wyzwaniem, ale także managerskim. Organizacja, która chce w pełni wykorzystać potencjał tkwiący we wdrażaniu sztucznej inteligencji w procesach i produktach, powinna podejść do wdrażania sztucznej inteligencji na wielu poziomach organizacji. W artykule przedstawię jakie działania podjąć, aby wdrożyć AI w całej organizacji. 
 

Raport

Na początek, zerknijmy na raport „2021 enterprise trends in machine learning” przygotowany przez Algorithmia, który przedstawia wnioski z 400 zebranych ankiet i opisuje trendy wykorzystywania rozwiązań uczenia maszynowego.
Raport pokazuje, że budżety przeznaczane na AI oraz priorytet takich inicjatyw rośnie. Wzrasta również liczba przypadków wykorzystania AI oraz ich różnorodność, a szczególny nacisk pojawia się w obszarach Customer Experience i automatyzacji procesów.

W raporcie znajdziemy informacje ile czasu zajmuje produkcyjne wdrożenie rozwiązań. Dla ¾ respondentów, czas wdrożenia rozwiązania ML na produkcję wynosi ponad miesiąc, a w 38% organizacji Data Scientist poświęca ponad połowę swojego czasu pracy na wdrażanie rozwiązania.

Respondenci wskazali również z jakimi trudnościami zmagają się podczas implementacji rozwiązań ML. Największym wyzwaniem okazują się być kwestie związane z AI Governance, zarządzaniem technologiami ML, utrzymaniem wysokiej jakości modeli, komunikacją pomiędzy zespołami.

Rysunek 1. Trudności podczas wdrażania ML

Źródło: Algorithmia 2021 Enterprise Trends in Machine Learning 


Z raportu wyłaniają się obszary (AI Governance, ML Operations, ML Environement), na które powinniśmy zwrócić szczególną uwagę przy planowaniu i wdrażaniu strategii zwiększającej wykorzystanie AI.

 

Dojrzałość AI w organizacji

W miarę jak organizacje przechodzą od podejścia „zobaczmy, co może dla nas zrobić sztuczna inteligencja” do postrzegania sztucznej inteligencji jako strategicznego zasobu, stają przed różnymi wyzwaniami. Wyobraźmy sobie dwie firmy, aby łatwiej zwizualizować drogę, którą musi przejść cała organizacja (a nie tylko dany zespół).
 
AI Newbie

Firma podjęła pierwsze próby wykorzystania AI w obszarach zaawansowanych analitycznie, takich jak marketing czy sprzedaż. Po kilku projektach, które sprawdziły potencjał AI managerowie dostrzega korzyści z produkcyjnego wykorzystania ich w procesach.

Inne osoby w organizacji, widząc udane wdrożenia w innych zespołach, również chcą wypróbować AI w swoich obszarach. Rośnie organizacyjny apetyt na AI.

Jednak z perspektywy całej organizacji zaczynają pojawiać się wyzwania związane z jakością i dostępnością danych, które mogą nie być przygotowane do takiego wykorzystania.

Nie ma wypracowanych praktyk MLOps, przez co wdrożenie na produkcję i integracja modeli z istniejącymi aplikacjami jest trudna i czasochłonna, brakuje jasnych standardów monitorowania modeli i odpowiedzialności za ich utrzymanie.

Nie ma opracowanej strategii zarządzania rozwiązaniami AI, przez co trudniej monitorować wpływ i ryzyka modeli na funkcjonowanie organizacji. Ludzie w całej organizacji nie znają koncepcji AI, są sceptyczni lub nadmiernie optymistyczni. Trudno jest weryfikować wykonalność nowych pomysłów, projekty trwają długo i czekają w kolejce w zespole Data Science.

AI Star

W tej firmie sztuczna inteligencja jest uwzględniana na etapie projektowania każdego procesu i aplikacji. Kluczowi interesariusze są świadomi potencjału sztucznej inteligencji i aktywnie inwestują w projekty badawczo-rozwojowe, aby testować możliwości uczenia maszynowego.

Proces tworzenia i wdrażania modeli jest dobrze zorganizowany i dobrze zarządzany z wykorzystaniem technik MLOps, co pozwala na skalowanie AI w całej organizacji (w przeciwieństwie do sytuacji, w której tylko technicznie rozwinięte zespoły są w stanie wdrożyć produkty oparte na AI).

Określone są standardy tworzenia, wdrażania i monitorowania rozwiązań AI, przez to łatwiej jest ocenić ich wpływ i ryzyka związane z ich funkcjonowaniem. Eksperymentowanie staje się łatwiejsze i tańsze.

Różnice między tymi dwoma przykładami wynikają z różnej dojrzałości i zaawansowania działań w czterech obszarach: strategii, architektury, MLOps i zarządzania AI (AI Governance).

Becoming AI Star

Organizacje, które chcą skalować AI zmierzają w kierunku stania się firmą na wzór AI Star. Na początku podróży nacisk kładzie się znacznie bardziej na strategię i architekturę. W miarę dojrzewania organizacji przesuwa się on na odtwarzalność procesów i operacji oraz na posiadanie dobrze zarządzanego i bezpiecznego systemu AI.
                                       
Strategia

Aby zacząć wdrażać i skalować AI w całej organizacji, najważniejsze jest potwierdzenie takiej potrzeby z osobami na najwyższych szczeblach decyzyjnych. Zaakceptowanie i zrozumienie sensu wdrażania rozwiązań AI ułatwi wygospodarowanie zasobów i nadanie priorytetów. Kolejnym krokiem jest osadzenie AI w strategii biznesowej i technologicznej oraz budowanie zrozumienia AI i właściwych oczekiwań w całej organizacji.

Przykładowe działania:
 
  • Wydarzenia promujące wykorzystanie AI
  • Szkolenia i warsztaty dla różnych grup odbiorców: managerów, PO, analityków, inżynierów 
  • Tworzenie społeczności dla entuzjastów AI
  • Zachęcanie do weryfikowania możliwości AI w każdym produkcie i procesie
  • Mówienie tym samym językiem o AI
  • Mierzenie wzrostu AI i sukcesu – wypracowanie KPI i dzielenie się wynikami

Architektura

Rozwój i skalowanie AI opiera się również na technologii. Wdrażanie AI jest wyzwaniem technologicznym, ponieważ w wielu firmach wymaga znacznej rozbudowy lub przebudowy infrastruktury technologicznej. Uczenie maszynowe to jedna z możliwych aplikacji AI i w wielu sytuacjach wymaga dużej ilości danych, aby trenować skuteczne modele.

Architektura powinna obejmować:
 
  • big data storage: środowisko do optymalnego przechowywania dużych ilości danych, które są dostępne i gotowe do wykorzystania w machine learningu (gotowe czyli: ustrukturyzowane, spójne, dostępne)
  • big data processing tools: narzędzia do optymalnego przetwarzania dużych ilości danych, ich ładowania, ekstrakcji i preprocessingu
  • środowiska do trenowania modeli na dużych ilościach danych: środowiska z wysokimi mocami obliczeniowymi i narzędziami do machine learningu
  • repozytoria kodu i modeli z kontrolą wersji i historii

MLOps


Aby móc skalować rozwiązania ML, firmy muszą przejść od myślenia o modelach uczenia maszynowego jako kompletnych rozwiązaniach w kierunku uznania potrzeby tworzenia pipelinów uczenia maszynowego. Do środowiska Data Science powinniśmy zapożyczać dobre praktyki wypracowane w środowiskach Software Engineering i DevOps. Takie standardy zaczynają powstawać pod hasłem MLOps.

Dlaczego to ważne? Aplikacje uczenia maszynowego są bardziej złożone w porównaniu z tradycyjnymi aplikacjami, ponieważ zależą od:
 
  • Kodu: Każdy kod musi być testowany, wersjonowany, weryfikowany.
  • Danych: Jakość danych może się zmieniać w czasie, więc konieczne jest zapewnienie, że źródła danych nie są opóźnione, spełniają założenia modelu (w zakresie jednostek, formatu, wartości). Ewentualne odchylenia od wartości oczekiwanych powinny być automatycznie wychwytywane przez systemy monitoringu.
  • Modelu: Model trenowany jest na danych historycznych, więc jego wyniki będą stawać się nieaktualne.  Należy monitorować wyniki modelu i weryfikować czy zgadzają się one z oczekiwaniami. Na podstawie ustalonych reguł modele powinny być retrenowane automatycznie lub przekazywane do ponownej budowy.

Podejście MLOps pozwala zarządzać tymi trzema obszarami równolegle, aby praca nad rozwiązaniami AI była lepiej zorganizowana i przejrzysta. Zwiększa się tempo i jakość tworzonych modeli dzięki wykorzystaniu ciągłej integracji i wdrażania (CI/CD) z odpowiednim monitorowaniem, walidacją i zarządzaniem modelami ML.

Dobre praktyki MLOps:
 
  • Używanie kontroli wersji i CI/CD
  • Tworzenie i korzystanie z testów jednostkowych i integracyjnych
  • Konteneryzacja
  • Monitoring (danych, modeli i środowiska) i alerty
  • Continous (re)training
  • Rejestr modeli i ich metadanych

Zarządzanie AI – AI Governance

Równolegle z pracami nad wdrażaniem praktyk MLOps, organizacje powinny wypracowywać standardy i narzędzia obejmujące zarządzanie AI.
Jest to proces definiowania polityk i ustanawiania odpowiedzialności w celu kierowania tworzeniem i wdrażaniem AI w organizacji. Gromadzenie metadanych modeli AI i zarządzanie nimi w ramach procesów zapewnia przejrzystość sposobu budowy, wdrażania i działania, co jest kluczowym wymogiem w przypadku większości kwestii regulacyjnych. Właściwe zarządzanie AI umożliwia organizacjom sprawne działanie i pełne zaufanie do wyników aplikacji opartych na AI.

Podejmując temat AI Governance firmy są w stanie:
 
  • Ustanawiać i egzekwować spójne zasady w całym cyklu rozwoju i wdrażania sztucznej inteligencji
  • Zmniejszyć ryzyko związane z nieprzewidzianym zachowaniem modeli (utrata reputacji marki, nieetyczne modele, sprawiedliwość społeczna modeli)
  • Szybciej i efektywniej reagować na nowe przepisy, polityki, zasady i sytuacje gospodarcze
  • Łatwiej wdrażać nowe strategie
  • Monitorować metadane przechwycone przez cały cykl życia rozwiązania AI, w celu poprawy wyników i efektywności
  • Ułatwiać komunikację i współpracę między analitykami danych, inżynierami, programistami i innymi interesariuszami kształtującymi cykl życia AI
  • Budować sztuczną inteligencję na dużą skalę ze scentralizowanym, kompleksowym obrazem wszystkich działań
Podsumowanie

Sukces we wdrażaniu AI w skali całej organizacji zależy od zaangażowania na wielu poziomach i obszarach. Początkowo ważne jest wzbudzenie zainteresowania i chęci do podjęcia wyzwań związanych z opracowaniem nowych pomysłów na szerokie wykorzystanie AI w produktach i procesach. Następnie trzeba przygotować odpowiednie środowiska i narzędzia do implementacji pomysłów, mając na uwadze techniki MLOps. W długofalowej perspektywie warto zadbać o dobre praktyki zarządzania AI, aby jego wykorzystanie było bezpieczne, sprawdzone i transparentne.

 
Wolisz obejrzeć wideo?

W kwietniu miałam przyjemność uczestniczyć w konferencji Big Data Technology Warsaw Summit 2022. Podczas konferencji z ramienia ING Banku Śląskiego wygłosiłam wystąpienie - Wyzwania w budowaniu świadomości i zarządzaniu AI w dużej organizacji.  Zapraszam do obejrzenia nagrania z mojego wystąpienia.  Miłego oglądania!