Współczesne ryzyka w organizacjach coraz rzadziej wynikają z luk w infrastrukturze, a coraz częściej rodzą się na styku procesów i ludzkiej świadomości. W dobie społeczeństwa informacyjnego kluczowym obszarem wymagającym uwagi staje się sposób, w jaki pracownicy korzystają z narzędzi sztucznej inteligencji (AI) – często bez pełnego zrozumienia mechanizmów ich działania.
Praktyka pokazuje, że czasem wystarczy jeden skrót: wklejenie danych klienta do publicznego asystenta AI, transkrypcja spotkania bez podstawy prawnej albo użycie niezatwierdzonego narzędzia do analizy dokumentów - i mamy problem. Z perspektywy obowiązującego prawa i cyberbezpieczeństwa finał bywa ten sam: utrata kontroli nad danymi.
Co istotne, deployer, czyli np. pracodawca wdrażający system AI, nie jest tu tylko biernym obserwatorem. Zaniedbania takie jak brak nadzoru człowieka nad systemem, niewystarczające informowanie pracowników czy inne naruszenia art. 26 AI ACT mogą skutkować karami do 15 mln euro lub 3% obrotu.
Shadow AI to stan chaosu, w którym technologia wyprzedza procedury. AI Act to moment, w którym prawo mówi 'sprawdzam' i zmusza organizacje do przejęcia pełnej, świadomej kontroli nad każdym algorytmem używanym w firmie. Zgodność z AI Act jest niemożliwa bez wcześniejszego wyeliminowania Shadow AI.
Na tym tle AI Act przestaje być tematem wyłącznie dla działów prawnych i compliance. Dla CISO, CIO i CTO to przede wszystkim ramy, które wymuszają uporządkowanie wykorzystania AI w organizacji: klasyfikację systemów według ryzyka, zasady nadzoru, wymagania bezpieczeństwa i „dowody zgodności”, które da się obronić w razie incydentu.
AI Act to unijne rozporządzenie, które ustanawia wspólne zasady dla systemów AI – w tym zasady zarządzania ryzykiem i wymogi bezpieczeństwa.
Obowiązuje bezpośrednio we wszystkich państwach członkowskich (podobnie jak RODO) i obejmuje zarówno firmy działające na terenie Unii Europejskiej, jak i te spoza niej, jeśli ich systemy AI oddziałują na użytkowników w UE.
AI Act reguluje sposób projektowania, wdrażania i nadzorowania systemów AI w podejściu „risk-based” – im wyższe ryzyko, tym bardziej konkretne obowiązki. Celem regulacji jest m.in. zwiększenie zaufania do AI oraz ochrona praw podstawowych, zdrowia i bezpieczeństwa.
AI Act dotyczy podmiotów uczestniczących w cyklu życia systemów AI, w szczególności:
AI Act formalnie wszedł w życie 1 sierpnia 2024 r., ale przepisy są wdrażane etapami – tak, aby organizacje miały czas na przygotowanie zgodności, dokumentacji i procesów operacyjnych. Dla przeciętnego pracodawcy i użytkownika systemów AI, w zasadzie można przyjąć, że AI już obowiązuje, przy czym, zamiast jednej daty, mamy do czynienia z „schodkowym” wprowadzaniem obowiązków. Oto jak wygląda harmonogram wdrażania AI ACT:
Etap 1: Formalny start i fundamenty (2024)
1 sierpnia 2024 r. – Oficjalne wejście w życie. Przepisy stały się częścią europejskiego porządku prawnego.
2 listopada 2024 r. – Wyznaczenie "strażników" praw. Państwa członkowskie wskazały organy, które będą czuwać nad przestrzeganiem praw obywateli. W Polsce kluczową rolę odgrywają m.in. PUODO, PIP, Rzecznik Praw Dziecka oraz Rzecznik Praw Pacjenta.
Etap 2: Czas zakazów i edukacji (Pierwsza połowa 2025)
2 lutego 2025 r. – Koniec z "dzikim zachodem". Zaczynają obowiązywać surowe zakazy dotyczące najbardziej ryzykownych praktyk AI (np. scoring społeczny czy manipulacja). Wchodzą też w życie podstawowe definicje, które porządkują słownik AI w UE.
2 maja 2025 r. – Standardy dla gigantów. To termin na dopracowanie kodeksów praktyk dla dostawców modeli ogólnego przeznaczenia (np. twórców dużych modeli językowych).
Etap 3: Nadzór i kary (Sierpień 2025)
2 sierpnia 2025 r. – Start machiny urzędowej. Zaczynają działać przepisy dotyczące organów nadzorczych oraz zasady dotyczące modeli AI ogólnego przeznaczenia. Co istotne – od tego dnia zaczyna obowiązywać system kar finansowych za większość naruszeń.
Etap 4: Pełne wdrożenie i systemy wysokiego ryzyka (2026–2027)
2 sierpnia 2026 r. – Wielki finał (prawie). Większość przepisów rozporządzenia staje się w pełni wymagalna.
2 sierpnia 2027 r. – Czas na "High-Risk". Do gry wchodzą najbardziej rygorystyczne wymogi dla systemów wysokiego ryzyka (np. AI używane w infrastrukturze krytycznej czy rekrutacji). Obowiązki te obejmą również starsze systemy, jeśli po tej dacie zostaną znacząco zmodyfikowane.
Etap 5: Ostatnie szlify (2030)
2 sierpnia 2030 r. – Pełna zgodność sektora publicznego. To ostateczny termin na dostosowanie systemów wysokiego ryzyka wykorzystywanych przez administrację publiczną oraz wielkich baz danych IT wymienionych w unijnych załącznikach.
Należy zauważyć, że już od 2 maja 2025 r. na pracodawcach spoczywa nowy obowiązek. Firmy wdrażające AI muszą zadbać o to, by ich zespół posiadał realną wiedzę na temat używanych narzędzi. To nie tylko szkolenie techniczne, ale budowanie świadomości o ryzykach i etyce pracy z algorytmami.
Otóż, zgodnie z art. 4 AI ACT: Dostawcy i podmioty stosujące systemy AI podejmują środki w celu zapewnienia, w możliwie największym stopniu, odpowiedniego poziomu kompetencji w zakresie AI wśród swojego personelu i innych osób zajmujących się działaniem i wykorzystaniem systemów AI w ich imieniu, z uwzględnieniem ich wiedzy technicznej, doświadczenia, wykształcenia i wyszkolenia oraz kontekstu, w którym systemy AI mają być wykorzystywane, a także biorąc pod uwagę osoby lub grupy osób, wobec których systemy AI mają być wykorzystywane.
W związku z powyższym, musimy zrozumieć, że AI Act to nie tylko technologia, to przede wszystkim ludzie. Przepisy, które obowiazują już od początku lutego 2025 roku, nakładają na Państwa jako pracodawców konkretny obowiązek: budowanie kompetencji w zakresie AI (tzw. AI Literacy).
Co obejmuje "AI Literacy"?
Zrozumienie działania: Jak algorytm generuje wyniki?
Świadomość ryzyka: Gdzie AI może się mylić (halucynacje, błędy poznawcze)?
Etyka i Prawa Podstawowe: Jak unikać dyskryminacji i uprzedzeń w wynikach AI?
Bezpieczeństwo danych: Czego nie wolno wpisywać do ogólnodostępnych modeli (ochrona tajemnicy przedsiębiorstwa).
To koniec ery 'partyzantki' i korzystania z narzędzi pod stołem. Firma nie może już powiedzieć: 'Pracownik sam sobie to zainstalował i nie wiedział, że tak nie wolno'. Jako wdrażający AI, macie Państwo obowiązek przeszkolić zespół tak, aby rozumiał on nie tylko, który przycisk kliknąć, ale jakie skutki prawne i etyczne może wywołać decyzja podjęta przez algorytm. Jest to najlepsze narzędzie do walki z Shadow AI – edukacja sprawia, że pracownicy stają się świadomymi użytkownikami, a nie zagrożeniem dla bezpieczeństwa danych firmy."
Od 2 sierpnia 2026 r. wchodzą w życie wymagania wobec systemów AI wysokiego ryzyka określonych w Załączniku III (m.in. AI w rekrutacji, kredytowaniu, opiece zdrowotnej, edukacji, infrastrukturze krytycznej, egzekwowaniu prawa).
W praktyce oznacza to konieczność zapewnienia m.in. oceny zgodności, klasyfikacji, kompletnej dokumentacji, rejestracji oraz nadzoru nad systemami AI. Z tą samą datą wiążą się również obowiązki dotyczące oznakowania systemu AI znakiem CE, sporządzenia deklaracji zgodności UE oraz rejestracji w unijnej bazie danych.
AI Act klasyfikuje systemy AI według czterech poziomów ryzyka:
Systemy sztucznej inteligencji klasyfikowane jako wysokiego ryzyka (high-risk AI systems) to te, które mogą realnie wpływać na bezpieczeństwo, prawa podstawowe lub życie użytkowników. AI Act szczegółowo określa, które zastosowania podlegają takiej klasyfikacji – opierając się na podejściu do ryzyka znanym z regulacji sektorowych, takich jak NIS2.
Zgodnie z Załącznikiem III do AI Act, systemy uznaje się za wysokiego ryzyka, jeśli są wykorzystywane w obszarach takich jak: biometria, infrastruktura krytyczna, edukacja i szkolenia zawodowe, zatrudnienie i zarządzanie pracownikami, dostęp do usług publicznych i prywatnych, wymiar sprawiedliwości, egzekwowanie prawa i procesy demokratyczne oraz migracja, azyl i kontrola granic.
Art. 15 nakłada na systemy AI wysokiego ryzyka obowiązek osiągnięcia odpowiedniego poziomu dokładności, odporności i cyberbezpieczeństwa oraz działania spójnie w tych obszarach przez cały cykl życia systemu. W praktyce Art. 15:
Art. 15 wskazuje wprost, że systemy high-risk mają być odporne na próby zmiany ich użycia, wyników lub działania przez osoby nieuprawnione. W szczególności chodzi o ataki ukierunkowane na:
Dodatkowo Art. 15 wymaga, aby system był możliwie odporny na błędy, usterki i niespójności wynikające z działania systemu lub środowiska, w tym interakcji z ludźmi i innymi systemami (ust. 4). W praktyce przepis wskazuje m.in. na:
Shadow AI to sytuacja, w której pracownicy używają narzędzi (np. ChatGPT, Claude, Midjourney) poza kontrolą działu IT. AI Act ucina argument: „nie wiedzieliśmy, że pracownicy tego używają”.
Zgodnie z rozporządzeniem, to podmiot stosujący (firma) odpowiada za to, jakie systemy AI działają w jego środowisku.
Jeśli pracownik użyje darmowego bota do analizy danych wrażliwych klienta, firma nie może zasłonić się niewiedzą – narusza wymogi dotyczące zarządzania ryzykiem i danymi.
Choć celem AI Act nie jest ograniczenie zjawiska Shadow AI, to w praktyce dostosowanie się do wymogów rozporządzenia – zwłaszcza tam, gdzie organizacja musi wykazać bezpieczeństwo i odporność systemów oraz wdrożyć środki techniczne i organizacyjne – wymusza uporządkowanie wykorzystania AI w firmie.
AI Act wymusza na firmach sklasyfikowanie narzędzi według poziomu ryzyka. Aby to zrobić, organizacja musi najpierw wiedzieć, co w ogóle posiada.
Proces zgodności (compliance) zmusza firmy do wyciągnięcia Shadow AI z cienia.
Nie da się ocenić, czy dany system jest „wysokiego ryzyka”, jeśli nie wiemy, że marketing używa go do targetowania reklam, a HR do wstępnej selekcji CV.
Oznacza to m.in.: identyfikację i klasyfikację użyć AI, ustalenie zasad dopuszczania narzędzi, kontrolę i dokumentowanie sposobu działania (w tym metryk oraz instrukcji użycia), monitoring oraz gotowość reagowania na zdarzenia. A to właśnie te elementy ograniczają „szarą strefę” nieautoryzowanych wdrożeń i użyć, czyli realnie zmniejszają ryzyko Shadow AI.
Wspomniany wcześniej art. 4 AI Act (obowiązek szkolenia pracowników) to bezpośrednie uderzenie w przyczynę Shadow AI.
Shadow AI bierze się z wygody i braku świadomości zagrożeń (np. wycieku własności intelektualnej).
Edukacja wymagana przez AI Act ma sprawić, że pracownik zrozumie: "Użycie tego niesprawdzonego narzędzia do raportu finansowego to nie tylko ułatwienie sobie pracy, to złamanie procedur bezpieczeństwa UE".
Zapraszam na bezpłatny webinar SECAWA, w którym wraz z Piotrem Kaźmierczakiem postaramy się opowiedzieć, jak uporządkować użycie AI w organizacji tak, aby zmniejszyć ryzyko Shadow AI oraz jak przygotować się na wymagania unijnego rozporządzenia AI Act.
W trakcie webinaru omówimy:
Wejdź na stronę: https://secawa.com/cykl-webinarow-ai-vs-cybersecurity/ i zarezerwuj swoje miejsce. Spotykamy się 5 lutego 2026 roku o godzinie 11:00.
Nie czekaj na 'odpowiedni moment' – stwórz go sam. Zapraszam Cię do kontaktu z moją Kancelarią: opowiedz mi o swojej sprawie a ja wykorzystam całą swoją wiedzę i doświadczenie, abyś mógł spać spokojnie. Bo każdy ma prawo do spokojnego snu!
Design: Wojtek Królik - krolikart.pl