Shadow AI: pracownicy już korzystają z AI, tylko dział IT o tym nie wie

autor:
20 sierpnia 2025
3 minut

W ciszy korporacyjnych korytarzy rozgrywa się technologiczna rewolucja, o której działy IT często dowiadują się jako ostatnie. Pracownicy na całym świecie masowo sięgają w pracy po narzędzia sztucznej inteligencji, zarówno te popularne jak ChatGPT, Claude, Copilot, czy też jako osobne narzędzia AI przeróżnych firm i startupów.

Z własnej inicjatywy, bez zgody przełożonych i poza oficjalnymi systemami firmowymi – bo wykorzystują prywatne urządzenia lub te nieco gorzej zabezpieczone ale firmowe, bez tzw. polis bezpieczeństwa.

To zjawisko nosi już nawet swoją nazwę „Shadow AI” i stanowi jedno z największych wyzwań dla bezpieczeństwa i zarządzania w erze cyfrowej transformacji.

Czym właściwie jest Shadow AI?

Shadow AI to nieautoryzowane używanie narzędzi i aplikacji opartych na sztucznej inteligencji przez pracowników w kontekście służbowym, bez wiedzy i zgody działu IT lub zarządu firmy.

Skala problemu jest oszałamiająca. Badania pokazują, że nawet 90% pracowników (MIT Study sierpień 2025) przyznaje się do korzystania z narzędzi AI w pracy, podczas gdy zaledwie 30-40% firm ma oficjalne polityki regulujące takie użycie i w ogóle jakieś wykupione usługi AI.

Jak to działa w praktyce?

W naszych niech to będzie pani kierowniczka działu marketingu w średniej firmie e-commerce, ma deadline na prezentację strategii na Q4 (czyli na koniec roku). Zamiast spędzić całe popołudnie na pisaniu, loguje się na swoje prywatne konto ChatGPT i wprowadza prompt:


„Przygotuj strategię marketingową dla firmy sprzedającej ekologiczną odzież, budżet 200 tys. zł, grupa docelowa 25-40 lat, kanały: social media, influencer marketing, email marketing. Dołącz KPI i timeline.”

W ciągu minut otrzymuje gotową strukturę dokumentu. Kopiuje wyniki wewnętrznych analiz sprzedażowych, dane o klientach, planowane akcje promocyjne – wszystko trafia do modelu AI hostowanego na serwerach OpenAI w USA. Pani nie zdaje sobie sprawy, że właśnie udostępniła wrażliwe dane biznesowe stronie trzeciej.

Te dane, użyte jako kontekst dla modelu AI, potencjalnie zasilają systemy uczenia maszynowego, które mogą je wykorzystać przy generowaniu sugestii dla innych użytkowników.

Dane osobowe na potęgę w AI

Rekrutrzy przy kuchennych pogawędkach nie kryją się z sytuacjami, kiedy np. trzeba przeanalizować 150 CV na jakieś stanowisko. Zamiast czytać wszystkie ręcznie, wrzucają je np. do Claude AI przez przeglądarkę, prosząc o ranking kandydatów z uzasadnieniem. W dokumentach znajdują się: imiona, nazwiska, adresy, numery telefonów itd.

Dlaczego pracownicy sięgają po Shadow AI?

Powody są prozaiczne i zrozumiałe. AI może w minuty wykonać pracę, która zajęłaby godziny. Automatyzacja powtarzalnych zadań, generowanie treści, analiza danych – to wszystko dzieje się błyskawicznie. Do kompletu mamy brak oficjalnych narzędzi, bowiem większość firm nie zapewnia alternatyw AI, więc pracownicy sięgają po to, co jest dostępne publicznie.

I na koniec chyba najważniejsze – nieświadomość ryzyka. Wielu użytkowników nie rozumie, że darmowe narzędzia AI monetyzują się właśnie na danych, które do nich wprowadzamy.

Przyszłość: jak będzie wyglądać AI w firmach?

W ciągu najbliższych lat możemy spodziewać się standaryzacji. Podobnie jak certyfikaty ISO dla bezpieczeństwa danych, powstaną standardy dla odpowiedzialnego używania AI w biznesie. Będą też przeróżne regulacje – można by to nawet przyrównać do RODO.

Unia Europejska już pracuje nad AI Act, który będzie klasyfikował systemy AI według ryzyka. Firmy będą musiały dokumentować użycie wysokiego ryzyka.

I tu ciekawostka, bo wiele wskazuje na to, że w działach Compliance czy też Bezpieczeństwa, ale w ramach IT powstaną nowe posady np. AI Governance Officers. To Nowe stanowisko odpowiedzialne za strategię AI w firmie, podobnie jak dzisiaj funkcjonują Chief Information Security Officers (CISO).

Balansowanie innowacji i bezpieczeństwa

Shadow AI to nie jest problem, który zniknie, bo to symptom głębszej transformacji w sposobie, w jaki pracujemy. Zamiast walczyć z nieuniknionym, firmy muszą zaakceptować, że AI jest już częścią codziennej pracy i stworzyć ramy, w których może bezpiecznie funkcjonować.

Klucz to zrozumienie, że pracownicy sięgają po te narzędzia z dobrych pobudek, chcą być bardziej produktywni i nie ukrywajmy, mniej się napracować. Zamiast karać, lepiej dać im bezpieczne alternatywy i jasne wytyczne.

Bo prawda jest taka… albo firma kontroluje, jak AI jest używane w jej obrębie, albo pracownicy będą to robić po kryjomu. I w tej drugiej sytuacji wszyscy tracą. Firma traci kontrolę nad danymi, pracownicy tracą wsparcie organizacji, a biznes traci szansę na świadome wykorzystanie potencjału AI.

Shadow AI to wyzwanie, ale też ogromna szansa. Firmy, które pierwsze znajdą złoty środek między bezpieczeństwem a innowacją, zyskają przewagę konkurencyjną w erze, gdzie AI przestaje być dodatkiem, a staje się fundamentem pracy i wiedzy.

Dodaj komentarz

Your email address will not be published.

Słownik