Sztuczna inteligencja to zagadnienie, które budzi w ostatnim czasie szczególnie silne emocje i zainteresowanie publiki. Wraz z rozwojem tego typu systemów, pojawiła się także koncepcja regulacji tej problematyki. Projekt Rozporządzenia Parlamentu Europejskiego i Rady Ustanawiający Zharmonizowane Przepisy Dotyczące Sztucznej Inteligencji i Zmieniający Niektóre Akty Ustawodawcze Unii – nazwa skrócona Akt w Sprawie Sztucznej Inteligencji jest pierwszą propozycją dotyczącą takiej regulacji.
14 czerwca 2023 Parlament Europejski przyjął wspólną pozycję dotyczącą Rozporządzenia w sprawie Sztucznej Inteligencji. Jest to pierwsza na świecie legislacja dotycząca tego zagadnienia. Pierwszy projekt tego aktu prawnego pojawił się w kwietniu 2021 roku i został przygotowany przez Komisję Europejską. Celem regulacji jest stworzenie warunków, w których sztuczna inteligencja stosowana w Europie będzie bezpieczna, przejrzysta, możliwa do śledzenia, nie będzie dyskryminować, będzie przyjazna dla środowiska oraz ustanowienie zasady nadzoru człowieka nad funkcjonowaniem sztucznej inteligencji.
Sprawdź jak wdrożyć RODO w twojej organizacji
Akt będzie stosowany zarówno do systemów rozwijanych w Europie, jak i tych spoza Europy, które będą oferowane użytkownikom z terenu Unii Europejskiej. Propozycja Parlamentu definiuje system sztucznej inteligencji jako programowanie (system oparty o maszyny) zaprojektowane do działania z określonym, zmiennym poziomem autonomii, które może (dla danego zestawu celów określonych przez człowieka w sposób jednoznaczny) generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska.
Patrząc na tę definicję, należy pamiętać, że samo określenie sztucznej inteligencji napotyka bardzo duże trudności zarówno w nauce, jak i w rezultacie – w prawie. Definicja Parlamentu w dużej mierze jest zgodna z tą, proponowaną wcześniej przez OECD, jednak PE zauważa, że dla dokładnego określenia sztucznej inteligencji należy odwoływać się także do prac naukowych.
Podejście oparte na ryzyku
Podstawowym założeniem regulacji Sztuczniej Inteligencji w projekcie – zarówno w projekcie Komisji, jak i Parlamentu – jest podejście oparte na kategoriach ryzyka związanych z funkcjonowaniem danego systemu. Projekt proponuje cztery poziomy ryzyka, z którymi związane będą różne zasady postępowania.
I poziom – ryzyko nieakceptowalne
Najwyższym poziomem jest ryzyko nieakceptowalne. Mówimy o nim, jeżeli przetwarzanie jest nieodłącznie związane z zagrożeniem dla osób fizycznych. Stosowanie takich programów jest w projekcie aktu, zakazane. Z takim poziomem ryzyka mamy do czynienia w przypadku:
- Systemów służących manipulacji kognitywnej na określonych wrażliwych grupach – na przykład zabawki, które u dzieci do podejmowania niebezpiecznych zachowań.
- Systemów scoringu społecznego – służących ocenie osób, biorąc pod uwagę ich zachowanie, status społeczno-ekonomiczny czy charakterystyki osobowe. Dotyczy to także programów predyktywnych służących np. wychwyceniu przyszłych przestępców.
- Działające w czasie rzeczywistym systemy identyfikacji biometrycznej, takie jak rozpoznawanie twarzy – w celu identyfikacji np. uczestników zdarzenia.
- Systemów biometrycznych mierzących wrażliwe charakterystyki (np. płeć, pochodzenie etniczne).
- Systemy prowadzące ogólne scrapowanie baz danych nagrań z monitoringu w celu tworzeniadużych baz danych w celu rozpoznawania twarzy.
- Systemy służące rozpoznawaniu emocji na potrzeby działań organów porządkowych, ochronygranic, w miejscach pracy oraz i placówkach edukacyjnych.Chociaż stosowanie systemów z nieakceptowalnym poziomem ryzyka jest zakazane, w niektórych przypadkach mogą istnieć wyjątki od tego zakazu, na przykład dopuszczenie stosowania systemów do późniejszej identyfikacji twarzy w celu ścigania poważnych przestępstw, jeśli zostanie wydane odpowiednie postanowienie sądowe.
II poziom – wysokie ryzyko
Systemy wysokiego ryzyka to takie, które mogą negatywnie wpłynąć na bezpieczeństwo lub prawa podstawowe. Tutaj wyróżnić można dwie podgrupy:
- Systemy wykorzystywane w produktach, które podlegają regulacji UE dotyczącej bezpieczeństwa, takie jak zabawki samochody, urządzenia medyczne.
- System należącej do ośmiu kategorii, które będą musiały być rejestrowane w bazach danych UE:
- Służące identyfikacji biometrycznej i kategoryzacji osób fizycznych.
- Służące zarządzaniu infrastrukturą krytyczną.
- Służące edukacji i kształceniu zawodowemu.
- Służące kwestią związanym z zatrudnieniem, zarządzaniem personelem i dostępem do samozatrudnienia.
- Dostęp to niezbędnych usług publicznych.
- Służące kwestiom porządku publicznego i ścigania.
- Służące kwestiom związanym z migracjami, udzielaniem azylu i kontrolą granic.
- Służące wsparciu w interpretacji i stosowaniu prawa.Wszystkie systemy wysokiego ryzyka muszą być poddane procesowi oceny i rejestracji przed wprowadzeniem na rynek europejski.
III poziom – średnie ryzyko
Trzecią grupą ryzyka jest sztuczna inteligencja, która generuje treści – tak jak słynny ChatGPT. Ta forma sztucznej inteligencji musi być zgodna z wymaganiami dotyczącymi przejrzystości:
- Udostępnić informację, że zawartość została wygenerowana za pomocą SI
- Zbudować model w taki sposób, aby nie generował nielegalnej zawartościDodatkowo należy opublikować podsumowanie danych objętych prawem autorskim, które wykorzystywane są do treningu algorytmu.
IV poziom – ryzyko ograniczone
Czwarta grupa, czyli sztuczna inteligencja o ograniczonym ryzyku, powinna działać zgodnie z ogólnymi zasadami przejrzystości, aby umożliwić użytkownikom podjęcie świadomej decyzji o korzystaniu z usług. Dotyczy to kategorii sztucznej inteligencji, które nie spełniają wymagań żadnej z powyższych grup. Użytkownicy muszą być poinformowani o tym, że mają do czynienia z sztuczną inteligencją. Systemy minimalnego ryzyka obejmują między innymi te, które generują lub manipulują obrazem, dźwiękiem lub zawartością wideo, na przykład tworząc tzw. deepfakes.
Kary
Propozycja rozporządzenia przewiduje wysokie kary za jego naruszenie. Podobnie jak w przypadku RODO, wprowadzone będą dwie granice kar:
• Pieniężna, do 30 000 000 Euro
• Procentowa – do 6% rocznego obrotu przedsiębiorstwa
Kary te są zatem bardzo wysokie i mogłyby w poważnym stopniu dotknąć potencjalnych podmiotów na które byłyby nałożone. Nie powstanie natomiast obowiązek powołania urzędu na potrzeby egzekwowania przepisów – państwa członkowskie same będą decydować jaki organ będzie odpowiedzialny za nakładanie kar.
Co ten projekt oznacza dla przedsiębiorców?
Z perspektywy przedsiębiorcy, który chce wprowadzić sztuczną inteligencję, konieczne będzie przestrzeganie wymogów wynikających z aktu, ale jednocześnie projekt ograniczy zakres dostępnych rozwiązań. Istotnym obowiązkiem będzie informowanie, że dana zawartość została stworzona przy użyciu sztucznej inteligencji. W większości przypadków ograniczenia dotyczące zastosowania sztucznej inteligencji nie wpłyną jednak na działalność firm. Korzystne zarówno dla klientów, jak i przedsiębiorców będzie to, że obowiązki związane z sztuczną inteligencją będą wymagały znajomości zasad jej działania i wykorzystywanych modeli do uczenia. W praktyce projekt aktu sprawi, że zasady działania i logika programu będą znane, zwłaszcza w przypadku kategorii systemów wyższego ryzyka, a wykonanie obowiązków nie będzie możliwe dla tzw. czarnych skrzynek. Dodatkową korzyścią będzie zmniejszenie ryzyka pojawienia się nieoczekiwanych rezultatów.