10 kwietnia 2026
Human-in-the-Loop: Techniczna implementacja vs. prawna rzeczywistość w EU AI Act
Artykuł 14 EU AI Act wymaga realnego nadzoru ludzkiego — nie pustego compliance. Jak przełożyć przepisy na interfejs HITL, walkę z automation bias i logi pod audyt.

Jednym z najbardziej mitycznych pojęć w EU AI Act jest Artykuł 14: Nadzór ludzki. Dla prawnika „nadzór” oznacza odpowiedzialność. Dla programisty często oznacza on wąskie gardło w procesie.
Jednak w przypadku systemów AI wysokiego ryzyka (High-Risk), prawo mówi jasno: AI nie może być autonomiczną czarną skrzynką. Musi istnieć interfejs ludzki zdolny do zapobiegania ryzykom lub ich minimalizowania. Ale jak zbudować system, w którym człowiek faktycznie ma znaczenie, a nie jest tylko statystą?
W Azmoy widzimy, że największym zagrożeniem często nie jest samo AI, ale tzw. Automation Bias (uprzedzenie automatyzacji) u człowieka, który ma je nadzorować. Oto jak przełożyć paragrafy na kod, który przejdzie audyt.
Część 1: Rzeczywistość prawna – czego naprawdę wymaga Artykuł 14?
Unijny akt o AI precyzuje, że nadzór ludzki ma na celu „zapobieganie ryzyku dla zdrowia, bezpieczeństwa lub praw podstawowych lub minimalizowanie go”. To nie tylko kwestia obecności człowieka – to kwestia jego realnej sprawczości.
Cztery filary skutecznego nadzoru:
- Zrozumienie ograniczeń: Osoba nadzorująca musi w pełni rozumieć, co system AI potrafi, a gdzie „halucynuje” lub popełnia błędy.
- Walka z „Automation Bias”: System musi być zaprojektowany tak, by uniemożliwić człowiekowi ślepe ufanie wynikom generowanym przez AI.
- Prawo do „Kill Switcha”: Człowiek musi mieć możliwość zignorowania, nadpisania lub odwrócenia decyzji AI.
- Prawo do interwencji: W skrajnych przypadkach nadzorca musi mieć techniczne środki, by całkowicie zatrzymać system (przycisk bezpieczeństwa).
Część 2: Implementacja techniczna – budowanie efektywnego HITL
Przełożenie Artykułu 14 na stack technologiczny wymaga wyjścia poza proste przyciski „Akceptuj/Odrzuć”. Wymaga to zaawansowanego Interfejsu Nadzoru (Oversight Interface).
1. Projektowanie pod „Interpretowalność”
Jeśli człowiek nie rozumie, dlaczego AI podjęło taką, a nie inną decyzję, nie może sprawować nadzoru.
Wymóg techniczny: Wdrożenie metodologii Explainable AI (XAI), takich jak SHAP lub LIME.
Podejście Azmoy: Audytujemy interfejsy użytkownika (UI), aby upewnić się, że wyświetlają one „wskaźniki pewności” (confidence scores) i kluczowe czynniki decyzyjne w sposób zrozumiały dla osoby nietechnicznej.
2. Mechanizmy zwalczania „Automation Bias”
Uprzedzenie automatyzacji to tendencja ludzi do faworyzowania sugestii z systemów zautomatyzowanych, nawet gdy są one sprzeczne z ich własną intuicją.
Wymóg techniczny: Wprowadzenie „Wyzwalaczy interwencji”. Przy decyzjach o wysoką stawkę system powinien zmuszać człowieka do podania uzasadnienia, dlaczego zgadza się z AI.
Implementacja: Zapomnij o prostym klikaniu. Skuteczny HITL wymaga, aby system okresowo „testował” czujność człowieka za pomocą znanych przypadków brzegowych (edge cases).
3. Architektura Nadpisywania
Możliwość nadpisania decyzji jest bezużyteczna, jeśli system już zdążył ją wykonać.
Wymóg techniczny: Wdrożenie tzw. Staging Gates.
Implementacja: Wyniki o wysokim ryzyku (np. odrzucenie wniosku kredytowego lub diagnoza medyczna) powinny trafiać do stanu „Oczekiwanie na nadzór”. Akcja powinna zostać zapisana w bazie danych dopiero po otrzymaniu podpisanego cyfrowo zatwierdzenia przez człowieka.
Część 3: HITL vs. HOTL vs. HITC – Który model wybrać?
EU AI Act nie mówi tylko o „człowieku w pętli”. W zależności od poziomu ryzyka, Twoja architektura może wyglądać inaczej.
| Model | Definicja | Zastosowanie | Zgodność z EU AI Act |
|---|---|---|---|
| Human-in-the-Loop (HITL) | Człowiek zatwierdza każdą decyzję przed jej finalizacją. | Medycyna, prawo, rekrutacja. | Obowiązkowy dla większości systemów High-Risk. |
| Human-on-the-Loop (HOTL) | Człowiek monitoruje proces i interweniuje, gdy coś idzie źle. | Przemysł, monitoring procesów. | Dopuszczalny przy niższym ryzyku natychmiastowej szkody. |
| Human-in-Command (HITC) | Człowiek nadzoruje ogólny cykl życia i kierunki rozwoju modelu. | Zarządzanie modelami GPAI. | Wymagany na poziomie ładu korporacyjnego. |
Część 4: Pułapki wdrożeniowe, które wykrywamy podczas audytów
W Azmoy, podczas audytów zgodności, często znajdujemy tzw. „Fantomowy Nadzór” – systemy, które na papierze wyglądają dobrze, ale w praktyce zawodzą.
1. Pułapka „Zmęczenia alertami” (Alert Fatigue)
Jeśli nadzorca otrzymuje 500 powiadomień dziennie, przestanie na nie patrzeć. To błąd techniczny systemu filtrowania.
Rozwiązanie: Wdrożenie „warstwowego alarmowania”. Tylko anomalie wykraczające poza określone przedziały ufności powinny trafiać do człowieka.
2. Brak „Identyfikowalnego” nadzoru
EU AI Act wymaga, aby sam nadzór był logowany.
Rozwiązanie: Twoje logi muszą pokazywać nie tylko, co zrobiło AI, ale także co zrobił człowiek. Czy widział ostrzeżenie? Ile czasu spędził na przeglądaniu? Czy nadpisał decyzję?
3. Brak szkoleń dla nadzorcy
Artykuł 14 ust. 4 wyraźnie wspomina, że człowiek musi posiadać „niezbędne kompetencje, szkolenie i uprawnienia”.
Usługa Azmoy: Nie audytujemy tylko kodu; audytujemy zespół człowiek-AI. Dostarczamy moduły szkoleniowe i oceny kompetencji, aby upewnić się, że Twój personel jest prawnie wykwalifikowany do nadzoru.
Azmoy dostarcza ekspertyzę, której potrzebujesz, aby Twój nadzór był czymś więcej niż tylko przyciskiem:
- Audyt systemów HITL: Testujemy Twoje interfejsy nadzoru, by sprawdzić, czy realnie zapobiegają błędom AI.
- Testy Automation Bias: Przeprowadzamy symulacje, aby sprawdzić, czy Twoi pracownicy wychwytują halucynacje i dryf modelu.
- Dokumentacja i mapowanie: Dostarczamy dowody techniczne, że Twoje mechanizmy nadzoru spełniają wymogi Art. 14 do Twojej Dokumentacji Technicznej.
Umów rozmowę na temat nadzoru AI z Azmoy i upewnij się, że Twoje AI pozostaje pod kontrolą – i jest w pełni legalne.
FAQ: Nadzór ludzki i EU AI Act
Czy każdy system AI potrzebuje człowieka w pętli?
Nie. Tylko systemy sklasyfikowane jako wysokiego ryzyka (lub te z konkretnymi obowiązkami w zakresie przejrzystości, jak deepfakes) wymagają formalnych mechanizmów nadzoru zgodnie z Aktem.
Czy „człowiekiem” może być inne AI?
Nie. EU AI Act jest bardzo konkretny: nadzór musi być sprawowany przez osobę fizyczną. Użycie „AI nadzorczego” do pilnowania „AI wykonawczego” nie spełnia wymogu prawnego dotyczącego odpowiedzialności ludzkiej.
Jak Azmoy pomaga wypełnić lukę między technologią a prawem?
Wdrożenie Human-in-the-Loop to nie zadanie typu „ustaw i zapomnij”. To wyzwanie projektowe wymagające wiedzy z zakresu psychologii, designu interfejsów i prawa regulacyjnego.