Shadow AI – nieoficjalne systemy rządowe błogosławieństwem czy przekleństwem?

4 dni temu
Zdjęcie: Sztuczna inteligencja, mózg, AI


W obliczu dynamicznego rozwoju sztucznej inteligencji oraz coraz większych napięć geopolitycznych, organizacje na całym świecie stają przed nowymi zagrożeniami i wyzwaniami. Chuck Herrin, Chief Information Security Officer, z firmy F5 przedstawia najważniejsze trendy, które zdominują rok 2025 w zakresie zarządzania cyberbezpieczeństem.

Ataki napędzane przez AI

Rok 2024 oznaczał systematyczną automatyzację i masowe wdrażanie AI w atakach – cyberprzestępcy przeszli od eksperymentowania do wykorzystywania tej technologii w praktyce.

Zauważyliśmy, iż AI nie tylko umożliwia łatwiejsze przeprowadzanie znanych nam wcześniej ataków, ale także sprawia, iż zaawansowane techniki, takie jak hakowanie sprzętu, które wcześniej były dostępne jedynie dla wyselekcjonowanych grup cyberprzestępców, stają się dostępne dla przeciętnej osoby. W 2025 roku prawdopodobnie zobaczymy eskalację tego problemu, gdy przeciwnicy będą wykorzystywać AI do penetracji systemów rządowych w czasach globalnych zawirowań.

mówi Chuck Herrin, CISO, F5

Skuteczność wykorzystania algorytmów AI nie byłaby możliwa bez kluczowego elementu: API, które stanowią kręgosłup współczesnej komunikacji systemów informatycznych. To właśnie API są narzędziem, które umożliwia nie tylko rozwój AI, ale również jej atakowanie i wykorzystywanie w praktyce, co podkreśla ich najważniejsze znaczenie w kontekście rosnącej liczby cyberzagrożeń.

Świat AI to świat API

Patrząc na przyszły rok, ekspert zauważa, iż możemy spodziewać się kontynuacji wyścigu w obszarze AI, gdzie zarówno małe firmy, jak i całe kraje będą wdrażać w zawrotnym tempie rozwiązania AI. Często przyświeca temu idea: „jeśli my tego nie zrobimy, zrobią to oni”. Przez „oni” należy rozumieć cyberprzestępców.

Pomimo szeregu korzyści wynikających z AI, szybkość wdrażania tej technologii tworzy niebezpieczną pętlę sprzężenia zwrotnego. Powstająca presja sprawia, iż stajemy się coraz bardziej zależni od AI. Spodziewam się nacisku na efektywność wdrażanych rozwiązań AI – zarówno zarządów spółek, jak i rządów poszczególnych państw – co może doprowadzić do istotnych luk w bezpieczeństwie.

Chuck Herrin

W wielu aspektach można to porównać do pośpiesznego wdrażania chmury w latach 2010-2015. Ekspert F5 zauważa jednak, iż tym razem stawka jest znacznie wyższa. Wynika to z faktu, iż organizacje muszą skupić się na architekturze AI oraz bezpieczeństwie infrastruktury, włącznie z API jako kluczowym punktem kontrolnym.

Każda interakcja z AI odbywa się przez API, co czyni je zarówno kluczowym elementem transformacji, jak i potencjalnym piętą achillesową. Dzisiejsze organizacje mają bardzo ograniczoną świadomość swojego ekosystemu API i tzw. powierzchni ataku. Często powtarzam: „świat AI to świat API”. API to sposób, w jaki modele AI są szkolone, używane i atakowane, a nasze szacunki wskazują, iż około 50% API pozostaje niekontrolowanych i niezarządzanych.

zaznacza Chuck Herrin

API odgrywają kluczową rolę w globalnym kontekście gospodarczym, szczególnie w obszarach takich jak architektura cyfrowa i zarządzanie łańcuchami dostaw. Umożliwiają integrację systemów logistycznych, wymianę danych między partnerami handlowymi oraz automatyzację procesów. W dobie globalnych napięć geopolitycznych ich znaczenie rośnie, ponieważ wspierają decentralizację krytycznych operacji i budowę bardziej odpornych ekosystemów technologicznych. Wraz z wprowadzeniem suwerennych rozwiązań chmurowych API stały się fundamentem zapewnienia elastyczności operacyjnej i ochrony danych w coraz bardziej wymagającym środowisku biznesowym.

Suwerenność łańcucha dostaw

Wyzwania związane z łańcuchami dostaw to nie tylko reshoring, czyli przenoszenie produkcji z powrotem do kraju, ale także fundamentalna zmiana w architekturze cyfrowej. Wraz z rosnącymi napięciami geopolitycznymi i możliwym wprowadzeniem nowych ceł, organizacje balansujące między wymogami efektywności a ograniczeniami łańcucha dostaw prawdopodobnie stworzą nowe klasy ryzyka systemowego, próbując zrobić więcej za mniej.

Przewiduję przyspieszenie wdrażania geofencingu i suwerennych rozwiązań chmurowych. Z kolei krytyczne łańcuchy dostaw, których nie można gwałtownie przenieść na rynek lokalny, prawdopodobnie doprowadzą do niedoborów komponentów i opóźnień w realizacji kluczowych projektów. Jednocześnie dążenie zarządów firm do efektywności może osłabić skuteczność weryfikacji dostawców i nadzoru, zwiększając ryzyko związane z dostawcami trzeciego i czwartego rzędu.

zaznacza ekspert z F5

Aby zarządzać tymi ryzykami i zmniejszyć liczbę dostawców wymagających kontroli w warunkach ograniczonego zatrudnienia, można spodziewać się wzrostu zainteresowania wdrażaniem AI i konsolidacją platform. W efekcie powinno to pomóc zredukować ryzyko w łańcuchu dostaw i zapewnić, iż krytyczne systemy będą pochodzić od zaufanych dostawców.

Chociaż suwerenność łańcuchów dostaw wynika z dążenia do minimalizacji ryzyk geopolitycznych, paradoksalnie może przyczynić się do wzrostu scentralizowanego ryzyka, szczególnie w kontekście zaufania do ograniczonej liczby dostawców AI. To zjawisko podkreśla, jak ryzyka systemowe wynikające z decyzji ekonomicznych mogą przenikać do obszaru technologii, zwiększając zagrożenia związane z monokulturą systemów i ograniczeniem różnorodności rozwiązań.

Burza scentralizowanego ryzyka

Jak wskazuje Chuck Herrin w tej chwili obserwujemy zbieżność trzech niebezpiecznych trendów: centralizacja ryzyka związanego z kluczowymi platformami AI, proliferacji niezarządzanych API łączących te systemy oraz redukcja nadzoru ludzkiego dokładnie wtedy, gdy jest najbardziej potrzebny. Może to prowadzić do powstawania zarówno podatności technicznych, jak i instytucjonalnej kruchości.

Cięcia budżetowe i wymogi dotyczące efektywności, szczególnie widoczne w niektórych państwach zachodnich, przyspieszą przejście agencji rządowych na nieoficjalne rozwiązania AI (shadow AI). W sposób niezamierzony skoncentruje to podatności wokół niewielkiej liczby dostawców AI. To z kolei stworzy idealne cele typu ‘watering hole’ – kompromitacja jednego modelu może mieć kaskadowy wpływ na wiele agencji. Prowadzi to do zjawiska budowania monokultury systemów AI połączonych niezarządzanymi API, jednocześnie zmniejszając nadzór i zarządzanie.

Nadmierna ufność stanowi kolejny problem – kombinacja nadmiernej ufności wobec ograniczonego nadzoru może wpłynąć na wszystko – od decyzji politycznych, przez analizy wywiadowcze, aż po reakcje kryzysowe. Ta idealna burza scentralizowanego ryzyka nadchodzi dokładnie wtedy, gdy napięcia geopolityczne rosną w związku z eskalacją konfliktów regionalnych, a rywale coraz śmielej szukają słabości w systemach.

Krajobraz wyzwań i strategii na przyszłość

Dynamiczny rozwój AI, wyzwania związane z łańcuchami dostaw oraz brak kontroli nad API stawiają organizacje przed nieznanymi dotąd wyzwaniami. Każdy z tych trendów z osobna niesie ryzyko, ale ich połączenie potęguje zagrożenia, tworząc złożony krajobraz cyberbezpieczeństwa. Jak zauważa Chuck Herrin, skuteczna odpowiedź wymaga wielopłaszczyznowego podejścia: inwestycji w architekturę AI, wzmocnienia ochrony API oraz budowy odpornych ekosystemów technologicznych, które uwzględniają zarówno lokalne, jak i globalne ryzyka. Tylko zintegrowane strategie mogą zapewnić stabilność i bezpieczeństwo w nadchodzących latach.

Idź do oryginalnego materiału