2 sierpnia 2026 r. wchodzą w życie kluczowe przepisy AI Act dla systemów wysokiego ryzyka. To data, której nie powinien przegapić żaden software house budujący narzędzia HR, żaden SaaS scoringowy, żaden fintech używający AI w ocenie kredytowej i żadna firma stosująca biometrię. Kara: do 35 mln EUR lub 7% globalnego obrotu. Poniżej znajdziesz 7 obowiązków, które konkretnie dotyczą polskich firm technologicznych - rozpisane na role provider, deployer i framework decyzyjny.
Artykuł opracowany przez Łukasza Gębczyka – prawnika Lexable, który na co dzień buduje dokumentację prawną dla SaaS’ów, marketplace’ów i startupów technologicznych.
AI Act dotyczy każdej firmy, która wprowadza system AI na rynek UE lub używa AI w decyzjach o osobach przebywających w UE. Siedziba w Polsce, USA czy Singapurze nie ma znaczenia. Liczy się rynek docelowy.
Odpowiedz ,,tak’’ na którekolwiek pytanie - jesteś objęty AI Act:
Jeśli odpowiedziałeś ,,tak’’ przynajmniej raz, przejdź do następnej sekcji.
AI Act to rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13 czerwca 2024 r. - pierwszy na świecie akt regulujący systemy sztucznej inteligencji. Weszło w życie 1 sierpnia 2024 r. i jest stosowane etapami.
To rozporządzenie, nie dyrektywa. Stosuje się wprost - bez konieczności implementacji w polskim prawie. Polska ustawa wyznaczająca krajowy organ nadzorczy (planowana Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji - KRiBSI) na maj 2026 r. wciąż nie została uchwalona, ale brak ustawy nie zwalnia firm z obowiązków wynikających z AI Act.
Provider (dostawca) - to ty, jeśli budujesz system AI i wprowadzasz go na rynek pod swoją marką. Software house tworzący narzędzie HR z AI matching = provider. SaaS scoringowy z własnym modelem ML = provider.
Deployer (podmiot stosujący) - to ty, jeśli używasz cudzego systemu AI w swojej działalności. Agencja rekrutacyjna kupująca system AI do screeningu CV = deployer. Bank używający zewnętrznego scoringu = deployer.
Importer/dystrybutor - to ty, jeśli sprowadzasz lub dystrybuujesz w UE system AI od dostawcy spoza Unii.
Możesz być jednocześnie deployerem ChatGPT i providerem własnego SaaS - i wtedy masz dwa zestawy obowiązków równolegle.
Trzy rzeczy weszły w życie 2 lutego 2025 r. i są egzekwowane już teraz. Jeśli Twoja firma ich nie wdrożyła, już jest opóźniona.
1. Zakazane praktyki AI (Art. 5)
Zero wyjątków. Nawet w celach badawczych. Lista praktyk całkowicie zakazanych:
Kara: do 35 mln EUR lub 7% globalnego obrotu - najwyższa w całym AI Act.
2. AI literacy (Art. 4)
Każda firma używająca AI musi zapewnić, że jej personel ma odpowiednie kompetencje do świadomego korzystania z tych narzędzi. To dotyczy nawet zwykłego ChatGPT używanego przez marketing.
Co konkretnie trzeba zrobić:
To nie jest wymóg certyfikacyjny, ale musi być udokumentowany. UOKiK i przyszły KRiBSI mogą wymagać dowodów.
3. Obowiązki dla modeli AI ogólnego przeznaczenia
Dotyczy dostawców dużych modeli (OpenAI, Anthropic, Google, Meta). Polskich firm dotyczy pośrednio - jeśli budujesz produkt na bazie GPT-4 czy Claude, korzystasz z compliance dostawcy, ale w niektórych przypadkach przejmujesz status providera (patrz sekcja "Pułapka fine-tuning" niżej).
To data, na którą musisz być gotowy. Od 2 sierpnia 2026 r. egzekwowane są wymagania dla systemów AI wysokiego ryzyka (HRAI - high-risk AI systems). Załącznik III rozporządzenia 2024/1689 wymienia 8 kategorii. Dla polskich firm technologicznych krytyczne są cztery:
Każdy system AI używany w obszarze HR jest co do zasady systemem wysokiego ryzyka. Konkretnie:
Polskie software house'y oferujące moduły HR z AI matching: jesteście providerami systemów wysokiego ryzyka. Pełen pakiet obowiązków od sierpnia 2026.
Polskie agencje rekrutacyjne i działy HR używające zewnętrznych narzędzi AI: jesteście deployerami systemów wysokiego ryzyka. Macie obowiązek żądać dokumentacji od dostawcy i zapewnić nadzór ludzki.
Wyjątek: scoring kredytowy w celu wykrywania oszustw finansowych (czysta walka z fraudem) jest wyłączony - ale tylko jeśli decyzja nie ma znaczącego wpływu na osobę fizyczną.
Uwaga praktyczna: standardowe logowanie biometryczne (Touch ID, Face ID, klucz USB) - to nie jest system wysokiego ryzyka. Rozporządzenie wyraźnie wyłącza weryfikację biometryczną, której jedynym celem jest potwierdzenie tożsamości użytkownika.
Dla kompletności: Załącznik III obejmuje też (5) infrastrukturę krytyczną, (6) dostęp do usług publicznych i świadczeń socjalnych, (7) ściganie przestępstw, (8) migrację i kontrolę graniczną oraz wymiar sprawiedliwości. Mniej istotne dla typowej firmy SaaS lub agencji.
Jeśli budujesz system AI wpadający w Załącznik III - to jest Twoja lista zadań do 2 sierpnia 2026 r.
Udokumentowany proces identyfikacji, analizy i ograniczania ryzyk związanych z używaniem systemu w trakcie całego cyklu życia. To nie jest jednorazowy dokument - to żywy proces, w tym:
Dane używane do trenowania modelu muszą być reprezentatywne, wysokiej jakości i wolne od błędów. Konkretnie:
Pełna dokumentacja musi być sporządzona przed wprowadzeniem systemu na rynek i przechowywana 10 lat. Załącznik IV rozporządzenia wymaga w szczególności:
System musi automatycznie rejestrować zdarzenia w trakcie działania. Logi muszą umożliwiać identyfikację sytuacji, w których system mógł stwarzać ryzyko, oraz monitorowanie po wprowadzeniu na rynek.
Deployer musi otrzymać jasną instrukcję obsługi, w tym:
System musi być zaprojektowany tak, aby człowiek mógł realnie nadzorować jego działanie, w tym:
To kluczowy punkt dla SaaS-ów HR. Ranking kandydatów przez AI to nie jest decyzja AI - decyzję podejmuje rekruter, AI tylko sortuje. Tak musi to być zaprojektowane.
Każdy system wysokiego ryzyka musi być zarejestrowany w unijnej bazie danych AI prowadzonej przez Komisję Europejską. Baza jest publicznie dostępna. Brak rejestracji = naruszenie wymagań HRAI = kara do 15 mln EUR lub 3% obrotu.
Deployer ma mniej obowiązków niż provider, ale wcale nie znikome.
Klasyczna sytuacja w polskich SaaS-ach. Bierzesz GPT-4 lub Claude przez API, robisz fine-tuning na danych klienta, sprzedajesz pod własną marką jako narzędzie HR.
Z perspektywy AI Act: jeśli wprowadzasz na rynek system pod własną nazwą lub znakiem towarowym, lub w istotny sposób modyfikujesz cudzy system AI, lub zmieniasz jego przeznaczenie - stajesz się providerem ze wszystkimi obowiązkami z poprzedniej sekcji.
To znaczy: nie wystarczy compliance OpenAI. Musisz mieć własny system zarządzania ryzykiem, własną dokumentację techniczną, własną rejestrację w bazie EU.
Tak. AI Act dotyczy każdej firmy bez względu na wielkość, jeśli buduje lub wdraża systemy AI dla użytkowników w UE. Dla MŚP i startupów przewidziano łagodniejsze obliczanie kar (niższa z dwóch wartości - procent obrotu lub kwota stała). Niektóre wymagania są też proporcjonalne do skali działalności. Ale obowiązki compliance są takie same.
Częściowo tak. Używanie ChatGPT lub Claude przez pracowników do zadań pomocniczych (pisanie, podsumowania, analiza) zazwyczaj nie kwalifikuje się jako system wysokiego ryzyka. Ale musisz spełnić obowiązek AI literacy (Art. 4) - przeszkolić zespół, udokumentować zasady. Jeśli zintegrujesz API tych modeli we własnym produkcie służącym do decyzji o ludziach (rekrutacja, scoring) - stajesz się deployerem systemu wysokiego ryzyka z pełnym pakietem obowiązków.
Najprawdopodobniej tak. Załącznik III pkt 4 lit. a wymienia ,,systemy AI przeznaczone do stosowania do celów rekrutacji lub wyboru osób fizycznych, w szczególności do umieszczania ukierunkowanych ogłoszeń o pracę, analizowania i filtrowania podań o pracę oraz oceny kandydatów’’. Każdy system, który ranguje, filtruje lub ocenia CV, łapie się na tę kategorię.
Obu. OpenAI jako provider modelu GPAI ma własne obowiązki wobec Komisji Europejskiej. Ty jako podmiot integrujący ich API w produkcie SaaS jesteś deployerem - z własnymi obowiązkami dostosowanymi do Twojej roli. Jeśli fine-tuningujesz model lub istotnie modyfikujesz jego przeznaczenie, stajesz się providerem z pełnym pakietem.
Do 15 mln EUR lub 3% globalnego obrotu rocznego (niższa z dwóch wartości dla MŚP, wyższa dla korporacji). Baza EU jest publicznie dostępna - organy nadzoru mogą sprawdzić brak wpisu bez specjalnego audytu, po prostu sprawdzając rejestr.
Tak, jeśli Twoi klienci są w UE lub jeśli wyniki działania systemu AI są wykorzystywane w UE. AI Act stosuje terytorialnie szeroki zakres - liczy się rynek docelowy, nie siedziba dostawcy.
Piaskownice regulacyjne (regulatory sandboxes) to środowiska testowe, w których firmy mogą rozwijać i testować innowacyjne systemy AI pod nadzorem organu regulacyjnego, ze wsparciem prawnym i bez pełnej odpowiedzialności za naruszenia. Polska musi uruchomić co najmniej jedną piaskownicę do 2 sierpnia 2026 r. Mają być szczególnie korzystne dla MŚP i startupów.
Zasada 1. Sprawdź, czy używasz AI - większość firm tak. Jeśli tak, masz minimum AI literacy do wdrożenia od zaraz.
Zasada 2. Jeśli budujesz lub wdrażasz AI w obszarach z Załącznika III (HR, scoring, edukacja, biometria) - jesteś objęty pełnym reżimem HRAI od 2 sierpnia 2026 r.
Zasada 3. Provider i deployer to różne role z różnymi obowiązkami. Możesz być jednym, drugim, lub obu naraz. Fine-tuning modelu cudzego = ryzyko przejęcia statusu providera.
Zasada 4. Polska ustawa jeszcze nie istnieje, ale to nieistotne. AI Act stosuje się wprost. Brak polskiego organu nadzoru nie zwalnia z obowiązków.
Cztery miesiące do sierpnia 2026 r. Wystarczy na audyt, klasyfikację, wdrożenie podstaw i rozpoczęcie dokumentacji. Nie wystarczy na zbudowanie wszystkiego od zera. Firmy, które zaczną teraz, będą miały przewagę nad konkurencją, która zostawi to na lipiec.
Rozpocznij teraz i wybierz jedną z opcji:
Wolisz mailowo? Napisz: contact@lexable.pl.