Odpowiedzialność za naruszenia AI Act – analiza praktyczna dla firm

Czas czytania: 12 min

Członkowie zarządu omawiający regulacje AI podczas spotkania biznesowego

Spis treści

Wprowadzenie: nowe ryzyka dla członków zarządu

Resort cyfryzacji opublikował nową wersję projektu ustawy o systemach sztucznej inteligencji (nr z wykazu: UC71), która implementuje unijne rozporządzenie znane jako AI Act. Choć większość firm skupia się na technologicznych aspektach zgodności z nowymi przepisami, projekt wprowadza również bezprecedensowe ryzyko osobistej odpowiedzialności finansowej dla członków zarządu. W skrajnych przypadkach może ona sięgać nawet 1 miliona złotych.

Jak wynika z naszej analizy, nowe przepisy będą miały znaczący wpływ nie tylko na branżę technologiczną, ale również na firmy produkcyjne, usługowe oraz sektor finansowy, które coraz powszechniej wdrażają rozwiązania oparte na sztucznej inteligencji. Dla firm z sektora MŚP oznacza to konieczność wprowadzenia dodatkowych mechanizmów kontrolnych, które dotychczas były domeną głównie dużych korporacji.

Kluczowe informacje: Projekt ustawy wprowadza odpowiedzialność osobistą członków zarządu do 1 mln zł w przypadku niedotrzymania warunków układu z Komisją Rozwoju i Bezpieczeństwa Sztucznej Inteligencji.

Układ o złagodzeniu kary – szansa czy pułapka?

Jednym z najbardziej kontrowersyjnych elementów nowej wersji projektu jest możliwość zawarcia układu z Komisją Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Układ ten pozwala na nadzwyczajne złagodzenie sankcji dla podmiotu, który dopuścił się naruszenia przepisów AI Act.

Mechanizm ten można porównać do rozwiązań znanych z rynku finansowego, gdzie regulator może zmniejszyć karę w zamian za współpracę i wdrożenie działań naprawczych. Jednak w przypadku AI Act, istnieje dodatkowy element – osobista odpowiedzialność członków zarządu za realizację postanowień układu.

Kto może skorzystać z układu?

Układ będzie dostępny dla firm, które:

  • Dopuściły się naruszeń o mniejszej wadze
  • Dobrowolnie zgłosiły naruszenie
  • Przedstawiły wiarygodny plan naprawczy
  • Nie były wcześniej karane za podobne naruszenia

Układ nie będzie możliwy w przypadku najpoważniejszych naruszeń, szczególnie tych skutkujących śmiercią lub poważnymi szkodami spowodowanymi przez systemy AI.

Opinie ekspertów

Eksperci rynku prawnego mają podzielone zdania na temat nowego rozwiązania. Według mec. Krzysztofa Nowaka „osobista odpowiedzialność członków zarządu ma zagwarantować, że układ będzie realnie wykonywany„. Doradca podatkowy Krzysztof Nowak wskazał również, że „jest to rozwiązanie skuteczniejsze od wyłącznego nakładania administracyjnych kar pieniężnych na podmioty prawa handlowego, gdyż te mogą kierować się przy podejmowaniu decyzji istnieniem 'rezerwy’ na ewentualne kary pieniężne„.

Nie można jednocześnie pominąć potencjalnego „efektu mrożącego” wysokich kar osobistych dla członków zarządu. Wysoka kara wisząca nad głowami członków zarządu w przypadku niedotrzymania układu może zniechęcać do korzystania z tego mechanizmu.

Milion złotych kary – kiedy grozi członkowi zarządu?

Maksymalna kara w wysokości 1 miliona złotych dla członka zarządu nie będzie nakładana automatycznie. Zgodnie z projektem oraz opiniami ekspertów, tak wysoka sankcja będzie zarezerwowana dla szczególnie jaskrawych przypadków naruszenia postanowień układu.

Okoliczności wpływające na wysokość kary

  1. Stopień zawinienia członka zarządu
  2. Zakres odpowiedzialności w strukturze organizacyjnej
  3. Korzyści finansowe osiągnięte w związku z naruszeniem
  4. Współpraca z organem nadzoru po wykryciu naruszenia
  5. Historia wcześniejszych naruszeń przepisów regulacyjnych

Z naszej analizy wynika, że szczególnie zagrożeni będą członkowie zarządu odpowiedzialni za obszary IT, innowacji oraz compliance. W praktyce firmy mogą potrzebować zrewidować zakresy odpowiedzialności w zarządach oraz rozważyć wprowadzenie dedykowanych stanowisk ds. zgodności AI (AI Compliance Officer).

Procedura odwoławcza przed SOKiK – praktyczne aspekty

Projekt ustawy przewiduje, że odwołania od decyzji o nałożeniu administracyjnej kary pieniężnej oraz innych decyzji Komisji będą rozpatrywane przez Sąd Ochrony Konkurencji i Konsumentów (SOKiK). Ten wybór budzi kontrowersje wśród ekspertów, głównie ze względu na obciążenie sądów i potencjalnie długi czas rozpatrywania spraw.

Zalety i wady wyboru SOKiK

Zalety:

  • Doświadczenie w sprawach na styku prawa cywilnego i administracyjnego
  • Zrozumienie specyfiki naruszeń regulacji związanych z prowadzeniem działalności gospodarczej
  • Doświadczenie w sprawach dotyczących ochrony konsumentów

Wady:

  • Znaczne obciążenie sądów może skutkować długimi terminami rozpatrywania spraw
  • Brak wyspecjalizowanej wiedzy w zakresie AI
  • Rozbieżność między dynamiką zmian w technologii AI a tempem postępowań sądowych

Adwokat Krzysztof Nowak zwraca uwagę, że „przy obecnym obciążeniu sądów powszechnych i tym, jak szeroki będzie zakres postępowania skargowego od decyzji nakładającej administracyjną karę pieniężną, oddalenie odwołania może sądowi zająć kilka lat. W przypadku wykorzystywania systemów sztucznej inteligencji, nie przyniesie to oczekiwanych rezultatów. Zasady czy funkcje takich systemów zmienia się w tygodniach„.

Z naszego doświadczenia w prowadzeniu spraw przed SOKiK wynika, że firmy powinny być przygotowane na potencjalnie długotrwałe postępowania, co oznacza konieczność zabezpieczenia odpowiednich środków finansowych oraz przygotowania strategii zarządzania ryzykiem operacyjnym w okresie niepewności prawnej.

Piaskownice regulacyjne – bezpieczna przystań dla innowacji

Znaczącym udoskonaleniem w nowej wersji projektu jest rozbudowanie przepisów dotyczących piaskownic regulacyjnych. Jest to odpowiedź na krytykę pierwszej wersji projektu, która traktowała ten temat zdawkowo.

Czym są piaskownice regulacyjne?

Piaskownice regulacyjne to kontrolowane środowiska testowe, w których firmy mogą eksperymentować z nowymi rozwiązaniami AI bez ryzyka ponoszenia pełnej odpowiedzialności prawnej. To szczególnie istotne dla firm z sektora MŚP, które chcą wdrażać innowacyjne rozwiązania, ale obawiają się konsekwencji regulacyjnych.

Jak będą działać piaskownice w praktyce?

  • Dostęp do piaskownic będzie przyznawany w drodze konkursu
  • Określone zostaną limity liczby użytkowników oraz podmiotów objętych projektem
  • Firmy będą mogły testować swoje rozwiązania pod nadzorem regulatora
  • Doświadczenia z piaskownic mogą posłużyć do doskonalenia przepisów

Adwokat Krzysztof Nowak argumentuje, że „w kraju, który bardzo chciałby rozwijać biznes i naukę związaną z systemami sztucznej inteligencji, warto stworzyć wszelkie możliwe narzędzia, które faktycznie w tym pomogą. I piaskownice mogą się tu świetnie sprawdzić, bo w przypadku jakichkolwiek wątpliwości co do zgodności z przepisami AI Aktu dostawca może w ramach piaskownicy regulacyjnej przetestować swoje rozwiązania bez obaw o odpowiedzialność„.

Wpływ regulacji AI na strategie podatkowe firm

Nowe regulacje dotyczące AI mają również istotny wpływ na strategie podatkowe przedsiębiorstw. Firmy inwestujące w rozwiązania AI muszą uwzględnić zarówno korzyści podatkowe, jak i potencjalne ryzyka wynikające z nowych przepisów.

Ulgi podatkowe na badania i rozwój AI

Polski system podatkowy oferuje szereg zachęt dla firm inwestujących w badania i rozwój, w tym w obszarze AI:

  • Ulga B+R pozwalająca na dodatkowe odliczenie od podstawy opodatkowania kosztów kwalifikowanych
  • IP Box umożliwiający preferencyjne opodatkowanie dochodów z kwalifikowanych praw własności intelektualnej
  • Ulga na robotyzację obejmująca również niektóre systemy AI

Jednocześnie firmy muszą być świadome, że kary administracyjne nakładane za naruszenie przepisów AI Act nie będą stanowić kosztów uzyskania przychodu. Dodatkowo, w przypadku osobistej odpowiedzialności członków zarządu, ewentualne wypłaty odszkodowań przez firmę mogą również podlegać ograniczeniom w zakresie zaliczenia do kosztów podatkowych.

Restrukturyzacja a odpowiedzialność za AI

Dla firm przechodzących procesy restrukturyzacyjne kluczowe będzie uwzględnienie potencjalnej odpowiedzialności za systemy AI w due diligence oraz umowach transakcyjnych. W przypadku przejęć lub fuzji, nabywca powinien dokładnie przeanalizować:

  • Zgodność używanych systemów AI z regulacjami
  • Potencjalne zobowiązania wynikające z wcześniejszych naruszeń
  • Istnienie i zakres układów z organem nadzoru
  • Zakres osobistej odpowiedzialności członków zarządu przejmowanego podmiotu

Rekomendacje dla przedsiębiorstw wykorzystujących AI

W świetle nadchodzących zmian regulacyjnych, rekomendujemy następujące działania dla firm wykorzystujących lub planujących wdrożenie rozwiązań AI:

1. Przeprowadzenie audytu zgodności systemów AI

  • Identyfikacja wszystkich systemów AI wykorzystywanych w organizacji
  • Klasyfikacja systemów według poziomów ryzyka określonych w AI Act
  • Ocena zgodności z wymogami dla poszczególnych kategorii systemów
  • Identyfikacja luk i opracowanie planu dostosowawczego

2. Wdrożenie polityki compliance AI

  • Opracowanie zasad zarządzania ryzykiem związanym z AI
  • Określenie ról i odpowiedzialności w zarządzaniu systemami AI
  • Wprowadzenie procedur testowania i walidacji systemów AI
  • Stworzenie mechanizmów monitorowania i raportowania naruszeń

3. Zabezpieczenie pozycji członków zarządu

  • Rewizja zakresu ubezpieczenia D&O pod kątem ochrony przed ryzykami związanymi z AI
  • Wprowadzenie mechanizmów sprawozdawczości wewnętrznej dotyczącej zgodności z AI Act
  • Dodanie klauzul dotyczących odpowiedzialności za AI w umowach o świadczenie usług zarządczych
  • Organizacja szkoleń z zakresu regulacji AI dla członków zarządu

4. Analiza możliwości uczestnictwa w piaskownicach regulacyjnych

  • Ocena innowacyjnych projektów AI pod kątem kwalifikacji do piaskownic
  • Przygotowanie wniosków konkursowych
  • Opracowanie strategii testowania w środowisku piaskownicy
  • Planowanie wdrożenia komercyjnego po fazie testów

Podsumowanie i perspektywy

Projekt ustawy o systemach sztucznej inteligencji wprowadza istotne zmiany w obszarze odpowiedzialności przedsiębiorstw i członków zarządu za naruszenia regulacji dotyczących AI. Choć głównym celem przepisów jest zapewnienie bezpiecznego rozwoju sztucznej inteligencji, niosą one ze sobą nowe ryzyka prawne i finansowe.

Kluczowe będzie znalezienie równowagi między innowacyjnością a zgodnością z przepisami. Firmy, które wcześnie dostosują się do nowych wymogów, mogą zyskać przewagę konkurencyjną, minimalizując jednocześnie ryzyko prawne i finansowe.

Warto zauważyć, że na mocy projektowanej ustawy powstanie Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, która będzie krajowym organem nadzoru. Urząd utworzony do obsługi komisji będzie dysponować maksymalnie 100 etatami, a koszty jego funkcjonowania wzrosną z 8 mln zł w 2025 roku do ponad 31 mln zł rocznie w latach 2027-2035.

Projekt ustawy znajduje się obecnie na etapie konsultacji publicznych i uzgodnień. Jako kancelaria będziemy na bieżąco monitorować proces legislacyjny i informować o istotnych zmianach.

FAQ: Najczęściej zadawane pytania

Kiedy wejdą w życie nowe przepisy?

Zgodnie z informacjami z resortu cyfryzacji, przepisy AI Aktu dotyczące nadzoru i sankcji powinny być stosowane od 2 sierpnia 2025 roku. Do tego czasu państwa członkowskie, w tym Polska, muszą przyjąć odpowiednie przepisy implementujące.

Czy osobista odpowiedzialność członków zarządu dotyczy wszystkich naruszeń AI Act?

Nie, osobista odpowiedzialność finansowa członków zarządu jest przewidziana specyficznie w przypadku niedotrzymania postanowień układu zawartego z Komisją Rozwoju i Bezpieczeństwa Sztucznej Inteligencji.

Czy firma może ubezpieczyć członków zarządu od odpowiedzialności za naruszenia AI Act?

Teoretycznie jest to możliwe w ramach polis D&O (Directors and Officers), jednak należy dokładnie przeanalizować warunki ubezpieczenia, gdyż wiele standardowych polis może zawierać wyłączenia dotyczące naruszeń nowych regulacji. Rynek ubezpieczeniowy dopiero dostosowuje się do ryzyk związanych z AI.

Czy małe i średnie przedsiębiorstwa podlegają takim samym regulacjom jak duże korporacje?

AI Act wprowadza podejście oparte na ryzyku, co oznacza, że wymogi są uzależnione przede wszystkim od kategorii systemu AI, a nie od wielkości firmy. Jednak projekt przewiduje pewne ułatwienia dla startupów i MŚP, szczególnie w kontekście dostępu do piaskownic regulacyjnych.

Jak przygotować się do audytu zgodności systemów AI?

Rekomendujemy następujące kroki:

  1. Inwentaryzacja wszystkich systemów wykorzystujących elementy AI
  2. Określenie ich zastosowania i poziomu ryzyka
  3. Zgromadzenie dokumentacji technicznej i prawnej
  4. Ocena luk w zgodności z przepisami
  5. Opracowanie planu dostosowawczego

Czy warto inwestować w AI mimo ryzyka regulacyjnego?

Zdecydowanie tak. Odpowiednio wdrożone systemy AI mogą przynieść znaczące korzyści biznesowe, a wczesne dostosowanie się do wymogów regulacyjnych może stanowić przewagę konkurencyjną. Kluczowe jest jednak świadome zarządzanie ryzykiem oraz wyprzedzające działania w zakresie compliance.


Zastrzeżenie prawne: Niniejszy artykuł ma charakter informacyjny i nie stanowi porady prawnej. W celu uzyskania indywidualnej konsultacji dotyczącej zgodności z regulacjami AI, odpowiedzialności członków zarządu lub strategii podatkowych związanych z AI, prosimy o kontakt z SN Kancelarią Śliwowski Nowak Adwokaci i Doradcy Podatkowi z Sosnowca.

Tagi: osobista odpowiedzialność zarządu, AI Act, sztuczna inteligencja w firmach, compliance AI, piaskownice regulacyjne, podatki a innowacje, restrukturyzacja przedsiębiorstw, SOKiK, kary za naruszenia AI

author avatar
Sławomir Śliwowski