Agenty AI pod lupą: innowacja wyprzedza ochronę

Zobacz również

Z najnowszych danych Microsoft wynika, że już ponad 80% firm z listy Fortune 500 wdrożyło agenty AI, które wspierają codzienne operacje i automatyzują kluczowe procesy biznesowe. Jednocześnie zaledwie 47% organizacji wprowadziło adekwatne zabezpieczenia dla tej szybko rozwijającej się technologii. W efekcie powstaje rosnąca luka, która może przekształcić innowacje w realne ryzyka dla danych, procesów i reputacji. Eksperci podkreślają jednak, że odpowiedzią nie jest spowolnienie wdrożeń, lecz przyjęcie jasnych standardów – traktowanie agentów jak pełnoprawnych tożsamości cyfrowych i stosowanie wobec nich zasady Zero Trust. Takie podejście pozwala wykorzystać potencjał AI bez kompromisów w zakresie bezpieczeństwa.

- Reklama -
Organizacje z regionu EMEA liderami wdrożeń

Adopcja agentów AI rośnie na całym świecie, ale to właśnie firmy z regionu EMEA robią to najszybciej. Dane z raportu Microsoft Cyber Pulse wskazują, że już 42% z nich korzysta z agentów AI na co dzień – od automatyzacji procesów po wsparcie pracowników. Dla porównania w USA z tej technologii korzysta 29% organizacji, a w Azji jedynie 19%.

Choć najczęściej z agentów AI korzysta branża IT (16% wszystkich wdrożeń), technologia szybko rozprzestrzenia się także na inne sektory. Coraz częściej sięgają po nią firmy produkcyjne (13%) i instytucje finansowe (11%). Duże tempo wzrostu widać również w handlu detalicznym, gdzie 9% organizacji wykorzystuje agentów do usprawniania obsługi klienta, wspierania zespołów frontline czy lepszego zarządzania zapasami i logistyką.

Skalę tego trendu najlepiej widać w największych firmach. Już ponad 80% przedsiębiorstw z listy Fortune 500 aktywnie tworzy i rozwija własnych agentów AI, wykorzystując do tego narzędzia low‑code i no‑code. Pozwalają one szybko budować i wdrażać rozwiązania na dużą skalę, często bez potrzeby angażowania rozbudowanych zespołów technicznych.

Szybki rozwój agentów AI sprawia, że coraz częściej pojawiają się pytania o kontrolę i odpowiedni nadzór nad tą technologią. W wielu firmach agenty stają się już stałym elementem procesów biznesowych, dlatego tak ważne jest wprowadzenie jasnych zasad dotyczących zarządzania nimi. Tymczasem, jak pokazuje Data Security Index, tylko 47% organizacji wdraża konkretne rozwiązania chroniące systemy oparte na generatywnej AI.

Brak kontroli nad AI zwiększa ryzyka operacyjne

Co istotne, aż 29% pracowników korzysta z agentów AI, które nie zostały oficjalnie zatwierdzone przez firmę. To typowy przykład tzw. Shadow AI – sytuacji, w której narzędzia tworzone są spontanicznie i działają poza formalnym nadzorem. W praktyce oznacza to, że nie wiadomo, kto odpowiada za ich działanie, jakie dane przetwarzają ani do jakich systemów mają dostęp. Brak takiej widoczności znacząco podnosi ryzyko operacyjne i bezpieczeństwa.

Zero Trust jako fundament bezpiecznego zarządzania agentami AI

Aby ograniczyć ryzyka związane z wykorzystaniem agentów AI, organizacje muszą zacząć traktować je jak pełnoprawne tożsamości cyfrowe i objąć spójnym modelem zarządzania opartym na zasadzie Zero Trust. Pierwszym krokiem jest pełna przejrzystość – wiedza o tym, jakie agenty działają w środowisku, kto je stworzył, jakie mają uprawnienia i jak zachowują się podczas pracy.

Dopiero na tym fundamencie można skutecznie wdrażać trzy kluczowe zasady bezpieczeństwa:

1. Ograniczanie uprawnień do minimum
Każdy agent – podobnie jak użytkownik czy system – powinien mieć dostęp wyłącznie do zasobów, które są mu niezbędne do wykonania określonych zadań. To ogranicza skalę potencjalnych nadużyć.

2. Ciągła weryfikacja dostępu
Każda próba uzyskania dostępu powinna być oceniana w czasie rzeczywistym: pod kątem tożsamości, kontekstu działania, lokalizacji, a także poziomu ryzyka.

3. Projektowanie z założeniem, że incydenty mogą się zdarzyć
Nowoczesne systemy powinny zakładać możliwość naruszenia i być przygotowane tak, aby zminimalizować jego konsekwencje.

AI jako nowa tożsamość cyfrowa

Wraz z coraz szerszym wykorzystaniem agentów AI firmy muszą zacząć traktować je tak samo poważnie, jak konta użytkowników czy uprzywilejowane aplikacje działające w firmowym środowisku. Agenty nie są już prostymi narzędziami – pracują w imieniu organizacji, mają dostęp do danych i systemów, wykonują zadania wpływające na codzienne działanie biznesu.

Aby ograniczyć ryzyko, potrzebne jest konsekwentne stosowanie podstawowych zasad bezpieczeństwa: minimalnego zakresu uprawnień, stałej weryfikacji dostępu i pełnej widoczności tego, co agent robi w systemie. Równie ważne jest korzystanie wyłącznie z zatwierdzonych platform AI, dbanie o ochronę danych i zgodność regulacyjną oraz uwzględnianie scenariuszy związanych z AI w planach reagowania na incydenty.

Brak nadzoru może prowadzić do nieautoryzowanego dostępu, problemów operacyjnych czy szkód reputacyjnych. Dlatego odpowiedzialność za jasne zasady kontroli i rozliczalności powinna spoczywać na kierownictwie — zwłaszcza na działach bezpieczeństwa i CISO.

Sztuczna inteligencja jest wielkim wsparciem dla działań zespołów zapewniających cyberbezpieczeństwo, ale trzeba pamiętać o tym, że technologia, z której korzystamy, może stać się również celem ataku.

W ostatnim Microsoft Digital Defense Report wskazywaliśmy, że sztuczna inteligencja wdrożona w nieprzemyślany sposób i z pominięciem analizy ryzyka, która dodatkowo pozostawiona jest bez nadzoru, może zostać wykorzystana przez atakujących do zakłócenia działania naszych systemów. Potencjalnym ryzykiem jest również wyciek informacji wskutek manipulowania promptami lub wykorzystania luk w zbiorach danych.

Stosowanie autonomicznych systemów agentowych wiąże się z kolei z wyzwaniem z pogranicza etyki i biznesu – odpowiednio przygotowany adwersarz może próbować manipulacji priorytetami systemów sztucznej inteligencji tak, żeby faworyzowała ona złośliwy podmiot zamiast domyślnych użytkowników. Żeby temu zapobiec, zaleca się testowanie scenariuszy pod kątem takich właśnie konfliktów i stosowanie zabezpieczeń etycznych.

Nowa technologia oznacza zatem nową powierzchnię potencjalnego ataku. Taka sytuacja wymaga przemodelowania podejścia do powszechnie stosowanego i promowanego przez Microsoft podejścia Zero Trust. Do klasycznych obszarów objętych analizą ryzyka i szczególną ochroną, takich jak tożsamość, dane, infrastruktura, sieci, aplikacje i urządzenia, należy dodać kolejny obszar – sztuczną inteligencję – powiedział Krzysztof Malesa, członek zarządu i dyrektor ds. strategii bezpieczeństwa Microsoft w Polsce.

ŹródłoMicrosoft
0 Komentarze
najnowszy
najstarszy oceniany
Inline Feedbacks
View all comments
- Reklama -

Najnowsze

Czy warto mieć CB Radio? Tradycja w obliczu nowoczesności

Współczesna komunikacja drogowa przeszła w ostatnich latach prawdziwą rewolucję. Jeszcze niedawno CB radio było nieodłącznym elementem wyposażenia każdego kierowcy,...