+48 790 737 750

kontakt@kancelariamuszynski.pl

a computer keyboard with a blue light on it

AI Act i Shadow AI: Nowe obowiązki pracodawców od lutego 2025 roku

Współczesne ryzyka w organizacjach coraz rzadziej wynikają z luk w infrastrukturze, a coraz częściej rodzą się na styku procesów i ludzkiej świadomości. W dobie społeczeństwa informacyjnego kluczowym obszarem wymagającym uwagi staje się sposób, w jaki pracownicy korzystają z narzędzi sztucznej inteligencji (AI) – często bez pełnego zrozumienia mechanizmów ich działania.

 

Praktyka pokazuje, że czasem wystarczy jeden skrót: wklejenie danych klienta do publicznego asystenta AI, transkrypcja spotkania bez podstawy prawnej albo użycie niezatwierdzonego narzędzia do analizy dokumentów - i mamy problem. Z perspektywy obowiązującego prawa i cyberbezpieczeństwa finał bywa ten sam: utrata kontroli nad danymi.

 

Co istotne, deployer, czyli np. pracodawca wdrażający system AI, nie jest tu tylko biernym obserwatorem. Zaniedbania takie jak brak nadzoru człowieka nad systemem, niewystarczające informowanie pracowników czy inne naruszenia art. 26 AI ACT mogą skutkować karami do 15 mln euro lub 3% obrotu.

 

Shadow AI to stan chaosu, w którym technologia wyprzedza procedury. AI Act to moment, w którym prawo mówi 'sprawdzam' i zmusza organizacje do przejęcia pełnej, świadomej kontroli nad każdym algorytmem używanym w firmie. Zgodność z AI Act jest niemożliwa bez wcześniejszego wyeliminowania Shadow AI.

 

Na tym tle AI Act przestaje być tematem wyłącznie dla działów prawnych i compliance. Dla CISO, CIO i CTO to przede wszystkim ramy, które wymuszają uporządkowanie wykorzystania AI w organizacji: klasyfikację systemów według ryzyka, zasady nadzoru, wymagania bezpieczeństwa i „dowody zgodności”, które da się obronić w razie incydentu.

Czym jest AI Act?

AI Act to unijne rozporządzenie, które ustanawia wspólne zasady dla systemów AI – w tym zasady zarządzania ryzykiem i wymogi bezpieczeństwa.

Obowiązuje bezpośrednio we wszystkich państwach członkowskich (podobnie jak RODO) i obejmuje zarówno firmy działające na terenie Unii Europejskiej, jak i te spoza niej, jeśli ich systemy AI oddziałują na użytkowników w UE.

AI Act reguluje sposób projektowania, wdrażania i nadzorowania systemów AI w podejściu „risk-based” – im wyższe ryzyko, tym bardziej konkretne obowiązki. Celem regulacji jest m.in. zwiększenie zaufania do AI oraz ochrona praw podstawowych, zdrowia i bezpieczeństwa.

kogo dotyczy ai act?

AI Act dotyczy podmiotów uczestniczących w cyklu życia systemów AI, w szczególności:

  • Dostawców systemów AI – podmiotów, które tworzą, rozwijają lub integrują rozwiązania i wprowadzają je do obrotu lub oddają do użytku.
  • Użytkowników systemów AI – organizacji, które korzystają z AI operacyjnie w swojej działalności (np. w procesach HR, finansowych, IT lub obsłudze klienta).
  • Dystrybutorów i importerów – podmiotów, które zapewniają dostępność systemu AI na rynku UE: dystrybutor udostępnia go dalej w łańcuchu dostaw (np. sprzedaje lub dostarcza rozwiązanie), a importer wprowadza system AI pochodzący spoza UE na rynek unijny.
  • Inne podmioty w łańcuchu dostaw – organizacje, które modyfikują, adaptują lub wdrażają rozwiązania AI, nawet jeśli nie są ich pierwotnym twórcą.

harmonogram obowiązywania ai act

AI Act formalnie wszedł w życie 1 sierpnia 2024 r., ale przepisy są wdrażane etapami – tak, aby organizacje miały czas na przygotowanie zgodności, dokumentacji i procesów operacyjnych. Dla przeciętnego pracodawcy i użytkownika systemów AI, w zasadzie można przyjąć, że AI już obowiązuje, przy czym, zamiast jednej daty, mamy do czynienia z „schodkowym” wprowadzaniem obowiązków. Oto jak wygląda harmonogram wdrażania AI ACT:

 

Etap 1: Formalny start i fundamenty (2024)

  • 1 sierpnia 2024 r. – Oficjalne wejście w życie. Przepisy stały się częścią europejskiego porządku prawnego.

  • 2 listopada 2024 r. – Wyznaczenie "strażników" praw. Państwa członkowskie wskazały organy, które będą czuwać nad przestrzeganiem praw obywateli. W Polsce kluczową rolę odgrywają m.in. PUODO, PIP, Rzecznik Praw Dziecka oraz Rzecznik Praw Pacjenta.
     

Etap 2: Czas zakazów i edukacji (Pierwsza połowa 2025)

  • 2 lutego 2025 r. – Koniec z "dzikim zachodem". Zaczynają obowiązywać surowe zakazy dotyczące najbardziej ryzykownych praktyk AI (np. scoring społeczny czy manipulacja). Wchodzą też w życie podstawowe definicje, które porządkują słownik AI w UE.

  • 2 maja 2025 r. – Standardy dla gigantów. To termin na dopracowanie kodeksów praktyk dla dostawców modeli ogólnego przeznaczenia (np. twórców dużych modeli językowych).
     

Etap 3: Nadzór i kary (Sierpień 2025)

  • 2 sierpnia 2025 r. – Start machiny urzędowej. Zaczynają działać przepisy dotyczące organów nadzorczych oraz zasady dotyczące modeli AI ogólnego przeznaczenia. Co istotne – od tego dnia zaczyna obowiązywać system kar finansowych za większość naruszeń.
     

Etap 4: Pełne wdrożenie i systemy wysokiego ryzyka (2026–2027)

  • 2 sierpnia 2026 r. – Wielki finał (prawie). Większość przepisów rozporządzenia staje się w pełni wymagalna.

  • 2 sierpnia 2027 r. – Czas na "High-Risk". Do gry wchodzą najbardziej rygorystyczne wymogi dla systemów wysokiego ryzyka (np. AI używane w infrastrukturze krytycznej czy rekrutacji). Obowiązki te obejmą również starsze systemy, jeśli po tej dacie zostaną znacząco zmodyfikowane.
     

Etap 5: Ostatnie szlify (2030)

  • 2 sierpnia 2030 r. – Pełna zgodność sektora publicznego. To ostateczny termin na dostosowanie systemów wysokiego ryzyka wykorzystywanych przez administrację publiczną oraz wielkich baz danych IT wymienionych w unijnych załącznikach.

ai literacy - nowe obowiązki podmiotów stosujących ai

Należy zauważyć, że już od 2 maja 2025 r. na pracodawcach spoczywa nowy obowiązek. Firmy wdrażające AI muszą zadbać o to, by ich zespół posiadał realną wiedzę na temat używanych narzędzi. To nie tylko szkolenie techniczne, ale budowanie świadomości o ryzykach i etyce pracy z algorytmami.

 

Otóż, zgodnie z art. 4 AI ACT:  Dostawcy i podmioty stosujące systemy AI podejmują środki w celu zapewnienia, w możliwie największym stopniu, odpowiedniego poziomu kompetencji w zakresie AI wśród swojego personelu i innych osób zajmujących się działaniem i wykorzystaniem systemów AI w ich imieniu, z uwzględnieniem ich wiedzy technicznej, doświadczenia, wykształcenia i wyszkolenia oraz kontekstu, w którym systemy AI mają być wykorzystywane, a także biorąc pod uwagę osoby lub grupy osób, wobec których systemy AI mają być wykorzystywane.

 

W związku z powyższym, musimy zrozumieć, że AI Act to nie tylko technologia, to przede wszystkim ludzie. Przepisy, które obowiazują już od początku lutego 2025 roku, nakładają na Państwa jako pracodawców konkretny obowiązek: budowanie kompetencji w zakresie AI (tzw. AI Literacy).


Co obejmuje "AI Literacy"?

  • Zrozumienie działania: Jak algorytm generuje wyniki?

  • Świadomość ryzyka: Gdzie AI może się mylić (halucynacje, błędy poznawcze)?

  • Etyka i Prawa Podstawowe: Jak unikać dyskryminacji i uprzedzeń w wynikach AI?

  • Bezpieczeństwo danych: Czego nie wolno wpisywać do ogólnodostępnych modeli (ochrona tajemnicy przedsiębiorstwa).

 

To koniec ery 'partyzantki' i korzystania z narzędzi pod stołem. Firma nie może już powiedzieć: 'Pracownik sam sobie to zainstalował i nie wiedział, że tak nie wolno'. Jako wdrażający AI, macie Państwo obowiązek przeszkolić zespół tak, aby rozumiał on nie tylko, który przycisk kliknąć, ale jakie skutki prawne i etyczne może wywołać decyzja podjęta przez algorytm. Jest to najlepsze narzędzie do walki z Shadow AI – edukacja sprawia, że pracownicy stają się świadomymi użytkownikami, a nie zagrożeniem dla bezpieczeństwa danych firmy."

Wymagania AI Act od 2026 roku

Od 2 sierpnia 2026 r. wchodzą w życie wymagania wobec systemów AI wysokiego ryzyka określonych w Załączniku III (m.in. AI w rekrutacji, kredytowaniu, opiece zdrowotnej, edukacji, infrastrukturze krytycznej, egzekwowaniu prawa). 

 

W praktyce oznacza to konieczność zapewnienia m.in. oceny zgodności, klasyfikacji, kompletnej dokumentacji, rejestracji oraz nadzoru nad systemami AI. Z tą samą datą wiążą się również obowiązki dotyczące oznakowania systemu AI znakiem CE, sporządzenia deklaracji zgodności UE oraz rejestracji w unijnej bazie danych.
 

Jak klasyfikuje się ryzyko systemu AI?

AI Act klasyfikuje systemy AI według czterech poziomów ryzyka:

  • Zabronione zastosowania AI (unacceptable risk) – zastosowania uznane za nieakceptowalne z perspektywy praw i wolności, których nie wolno stosować.
  • Wysokie ryzyko (high risk) – systemy, które mogą istotnie wpływać na ludzi i ich prawa, dlatego podlegają najbardziej rygorystycznym wymogom (w tym obowiązkom dokumentacyjnym, nadzorczym i bezpieczeństwa).
  • Ograniczone ryzyko (limited risk) – systemy, które co do zasady nie wymagają pełnego reżimu high-risk, ale mają obowiązki związane z przejrzystością (np. informowanie użytkownika).
  • Minimalne lub żadne ryzyko (minimal risk) – systemy, dla których AI Act nie przewiduje szczególnych obowiązków poza ogólnymi dobrymi praktykami.

Systemy AI wysokiego ryzyka - co to oznacza w praktyce?

Systemy sztucznej inteligencji klasyfikowane jako wysokiego ryzyka (high-risk AI systems) to te, które mogą realnie wpływać na bezpieczeństwo, prawa podstawowe lub życie użytkowników. AI Act szczegółowo określa, które zastosowania podlegają takiej klasyfikacji – opierając się na podejściu do ryzyka znanym z regulacji sektorowych, takich jak NIS2.

 

Zgodnie z Załącznikiem III do AI Act, systemy uznaje się za wysokiego ryzyka, jeśli są wykorzystywane w obszarach takich jak: biometria, infrastruktura krytyczna, edukacja i szkolenia zawodowe, zatrudnienie i zarządzanie pracownikami, dostęp do usług publicznych i prywatnych, wymiar sprawiedliwości, egzekwowanie prawa i procesy demokratyczne oraz migracja, azyl i kontrola granic.

Art. 15 AI Act – „cyber-standard” dla systemów wysokiego ryzyka

Art. 15 nakłada na systemy AI wysokiego ryzyka obowiązek osiągnięcia odpowiedniego poziomu dokładności, odporności i cyberbezpieczeństwa oraz działania spójnie w tych obszarach przez cały cykl życia systemu. W praktyce Art. 15:

  1. zakłada, że dokładność i odporność systemu można mierzyć. Komisja Europejska ma wspierać tworzenie benchmarków i metod pomiaru (ust. 2).
  2. wymaga ujawnienia metryk dokładności w instrukcjach użycia (ust. 3),
  3. nakazuje wdrożyć środki techniczne i organizacyjne zwiększające odporność na błędy, usterki i niespójności oraz zabezpieczające system przed manipulacją (ust. 4-5).
     

Art. 15 wskazuje wprost, że systemy high-risk mają być odporne na próby zmiany ich użycia, wyników lub działania przez osoby nieuprawnione. W szczególności chodzi o ataki ukierunkowane na:

  • manipulację zbiorem treningowym (data poisoning),
  • manipulację komponentami pre-trained używanymi w treningu (model poisoning),
  • wejścia zaprojektowane tak, aby model popełnił błąd (adversarial examples / model evasion),
  • ataki na poufność (confidentiality attacks),
  • inne podatności i wady modelu, które mogą zostać wykorzystane do manipulacji.

 

Dodatkowo Art. 15 wymaga, aby system był możliwie odporny na błędy, usterki i niespójności wynikające z działania systemu lub środowiska, w tym interakcji z ludźmi i innymi systemami (ust. 4). W praktyce przepis wskazuje m.in. na:

  • wdrożenie środków technicznych i organizacyjnych zwiększających odporność,
  • stosowanie redundancji (np. backup, fail-safe, plany awaryjne),
  • ograniczanie ryzyka „pętli sprzężenia zwrotnego” w systemach, które uczą się po wdrożeniu, oraz wdrażanie działań mitygujących.

AI Act a Shadow AI

Shadow AI to sytuacja, w której pracownicy używają narzędzi (np. ChatGPT, Claude, Midjourney) poza kontrolą działu IT. AI Act ucina argument: „nie wiedzieliśmy, że pracownicy tego używają”.

  • Zgodnie z rozporządzeniem, to podmiot stosujący (firma) odpowiada za to, jakie systemy AI działają w jego środowisku.

  • Jeśli pracownik użyje darmowego bota do analizy danych wrażliwych klienta, firma nie może zasłonić się niewiedzą – narusza wymogi dotyczące zarządzania ryzykiem i danymi.
     

Choć celem AI Act nie jest ograniczenie zjawiska Shadow AI, to w praktyce dostosowanie się do wymogów rozporządzenia – zwłaszcza tam, gdzie organizacja musi wykazać bezpieczeństwo i odporność systemów oraz wdrożyć środki techniczne i organizacyjne – wymusza uporządkowanie wykorzystania AI w firmie.
 

AI Act wymusza na firmach sklasyfikowanie narzędzi według poziomu ryzyka. Aby to zrobić, organizacja musi najpierw wiedzieć, co w ogóle posiada.

  • Proces zgodności (compliance) zmusza firmy do wyciągnięcia Shadow AI z cienia.

  • Nie da się ocenić, czy dany system jest „wysokiego ryzyka”, jeśli nie wiemy, że marketing używa go do targetowania reklam, a HR do wstępnej selekcji CV.

 

Oznacza to m.in.: identyfikację i klasyfikację użyć AI, ustalenie zasad dopuszczania narzędzi, kontrolę i dokumentowanie sposobu działania (w tym metryk oraz instrukcji użycia), monitoring oraz gotowość reagowania na zdarzenia. A to właśnie te elementy ograniczają „szarą strefę” nieautoryzowanych wdrożeń i użyć, czyli realnie zmniejszają ryzyko Shadow AI.
 

Wspomniany wcześniej art. 4 AI Act (obowiązek szkolenia pracowników) to bezpośrednie uderzenie w przyczynę Shadow AI.

  • Shadow AI bierze się z wygody i braku świadomości zagrożeń (np. wycieku własności intelektualnej).

  • Edukacja wymagana przez AI Act ma sprawić, że pracownik zrozumie: "Użycie tego niesprawdzonego narzędzia do raportu finansowego to nie tylko ułatwienie sobie pracy, to złamanie procedur bezpieczeństwa UE".

zaproszenie na Bezpłatny webinar z secawa w dniu 12.02.2026 godzina 11:00

Jak ograniczyć zjawisko Shadow AI w organizacji i spełnić wymogi AI Act?

Zapraszam na bezpłatny webinar SECAWA, w którym wraz z Piotrem Kaźmierczakiem postaramy się opowiedzieć, jak uporządkować użycie AI w organizacji tak, aby zmniejszyć ryzyko Shadow AI oraz jak przygotować się na wymagania unijnego rozporządzenia AI Act.

W trakcie webinaru omówimy:

  • jak rozpoznać Shadow AI w organizacji i ograniczyć ryzyka wynikające z użycia AI przez pracowników,
  • jakie są główne wektory ryzyka – m.in. wtyczki, integracje, automatyzacje,
  • jak podejść do wewnętrznej polityki AI, aby nie blokować zespołów, a jednocześnie chronić dane i systemy,
  • jakie kluczowe wymagania wprowadza AI Act oraz jaka jest relacja AI Act z RODO.

 

Wejdź na stronę: https://secawa.com/cykl-webinarow-ai-vs-cybersecurity/ i zarezerwuj swoje miejsce. Spotykamy się 5 lutego 2026 roku o godzinie 11:00.

11 lutego 2026
bust beside columns

Wierzę, że wiedza daje wolność wyboru, a dobrze przygotowana strategia to połowa sukcesu.

Nie czekaj na 'odpowiedni moment' – stwórz go sam. Zapraszam Cię do kontaktu z moją Kancelarią:  opowiedz mi o swojej sprawie a ja wykorzystam całą swoją wiedzę i doświadczenie, abyś mógł spać spokojnie. Bo każdy ma prawo do spokojnego snu!

KONTAKT Z KANCELARIĄ

Design: Wojtek Królik - krolikart.pl