2–3 minuty: Sprawdź, czy Twoje AI kwalifikuje się jako system wysokiego ryzyka (EU AI Act)

Szybka weryfikacja, która pomoże Ci zrozumieć, w którym miejscu na mapie regulacyjnej znajduje się Twoje rozwiązanie.

Czy AI wpływa na decyzje dotyczące osób lub ich praw i świadczeń?

To kluczowe kryterium oddzielające systemy wysokiego ryzyka od pozostałych.

W jakim obszarze działa ten system? (zaznacz 1–2)

Kategorie zmapowane według Załącznika III (Annex III) EU AI Act.

Czy korzystasz z biometrii, rozpoznawania twarzy, identyfikacji lub rozpoznawania emocji?

Czy AI jest „elementem bezpieczeństwa” produktu regulowanego (np. wyrobu medycznego, pojazdu, lotnictwa)?

Czy system działa w środowisku korporacyjnym/regulowanym, gdzie klienci wymagają dowodów bezpieczeństwa (SOC 2 / ISO / kwestionariusze vendorów)?

Czy użytkownik końcowy wchodzi w bezpośrednią interakcję z AI (chat/agent) lub widzi treści, które mogą sprawiać wrażenie stworzonych przez człowieka?

Czy AI operuje na danych wrażliwych (zdrowie, biometria, dzieci, poglądy polityczne) lub danych osobowych na dużą skalę?

Czy wersje modelu / promptów / narzędzi zmieniają się często (np. co tydzień) bez formalnego procesu zarządzania zmianą?

Czy posiadasz monitoring i logi (kto/kiedy/co wygenerował lub zmienił) oraz podstawowy proces reagowania na incydenty?

Wyślij wyniki i otrzymaj krótkie podsumowanie

Przesyłając formularz, zgadzasz się na kontakt z naszej strony w celu omówienia wyników oceny, zgodnie z naszą Polityką Prywatności.