top of page
Szukaj

AI Act - pierwsze na świecie prawo dotyczące sztucznej inteligencji

Sztuczna inteligencja szturmem podbija wirtualny świat. Jej szybkie rozbudowywanie jest wręcz określane kolejnym krokiem milowym w rozwoju ludzkości. Każdy medal ma jednak dwie strony. Technologiczna rewolucja niesie za sobą również wiele zagrożeń. W odpowiedzi na nie powstał AI Act - pierwsze kompleksowe prawo regulujące wykorzystanie sztucznej inteligencji. Czym jest, co reguluje i w jaki sposób będzie chronić obywateli Unii Europejskiej?


Czym jest AI Act?


AI Act to ustawa dotycząca sztucznej inteligencji zaproponowana przez Unię Europejską. Jest to pierwsze na świecie kompleksowe prawo regulujące zastosowanie AI.


Przede wszystkim celem tych regulacji jest zapewnienie lepszych warunków rozwoju i wykorzystania sztucznej inteligencji. Wprowadzenie konkretnych przepisów i wytycznych ma na celu zapobiegnięcie nadużyciom i niewłaściwemu wykorzystaniu technologii AI, jednocześnie umożliwiając rozwój innowacyjnych rozwiązań opartych na sztucznej inteligencji.


AI Act obejmuje obowiązki dotyczące dostawców, importerów oraz użytkowników systemów i modeli sztucznej inteligencji. Jednocześnie warto zaznaczyć, że wojsko, badania i nauka mają pozostać poza zakresem działania tej ustawy.


Prawo opiera się na starannej analizie ryzyka związanego z zastosowaniem sztucznej inteligencji.


W przypadku popularnych chatbotów i generatywnej sztucznej inteligencji (takich jak np. ChatGPT), AI Act wprowadza obowiązek informowania użytkowników, że mają do czynienia z „produktem” wygenerowanym przez sztuczną inteligencję. Jest to ważny aspekt, który ma na celu zapewnienie transparentności i świadomości w kontekście interakcji z tego rodzaju aplikacjami.



Kategorie ryzyka w AI Act


Tak jak już wspomniano wyżej - nowe prawo Unii Europejskiej opiera się na dokładnej analizie ryzyka związanego z zastosowaniem sztucznej inteligencji. W związku z tym postanowiono podzielić owe ryzyko na kilka kategorii. Wśród nich znajdują się:


  1. Niedopuszczalne ryzyko.

  2. Wysokie ryzyko

  3. Ograniczone ryzyko

  4. Sztuczna inteligencja generująca treść


Niedopuszczalne ryzyko


W celu zapewnienia bezpieczeństwa i ochrony ludzi, systemy sztucznej inteligencji, które mogą stwarzać zagrożenie dla jednostek, są obecnie zakazywane. Tego rodzaju systemy obejmują różnorodne aspekty, takie jak np. manipulacja poznawczo-behawioralna, która jest szczególnie niebezpieczna dla osób podatnych na zagrożenia. Jako przykład można podać tutaj zabawki aktywowane głosem, które mogą zachęcać dzieci do podejmowania niebezpiecznych działań.


Również uważana za niedopuszczalną jest ocena społeczna, która polega na klasyfikowaniu jednostek na podstawie ich zachowania, statusu społeczno-ekonomicznego lub cech osobistych. Zakazowi podlegać będą także systemy zdalnej identyfikacji biometrycznej w czasie rzeczywistym, takie jak m.in. rozpoznawanie twarzy.


Trzeba jednak wiedzieć, że istnieją pewne wyjątki od tych zakazów. Na przykład systemy zdalnej identyfikacji biometrycznej, w których identyfikacja zostaje przeprowadzona z opóźnieniem, mogą być stosowane w celu ścigania poważnych przestępstw, jednak ich zastosowanie wymaga zatwierdzenia przez sąd. W ten sposób, ograniczenia są wprowadzane w celu zapewnienia odpowiedniego zrównoważenia między innowacjami AI a ochroną praw człowieka i uniknięciem potencjalnych zagrożeń.



Wysokie ryzyko


Wprowadzane zmiany mają także na celu skuteczne zarządzanie systemami sztucznej inteligencji (SI), które mogą stanowić wysokie ryzyko dla bezpieczeństwa oraz praw podstawowych. W tym celu zostanie wprowadzony podział na dwie kategorie.


Pierwsza z nich obejmuje systemy SI wykorzystywane w produktach objętych unijnymi przepisami dotyczącymi bezpieczeństwa, takie jak zabawki, lotnictwo, samochody, urządzenia medyczne i windy. Druga kategoria dotyczy systemów AI, które są związane z ośmioma konkretnymi obszarami i będą musiały zostać zarejestrowane w bazie danych UE.

Obszary te obejmują: identyfikację biometryczną i kategoryzację osób fizycznych, zarządzanie i obsługę infrastruktury krytycznej, edukację i szkolenie zawodowe, zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia, dostęp do podstawowych usług prywatnych i publicznych oraz korzystanie z nich, egzekwowanie prawa, zarządzanie migracją, azylem i kontrolą graniczną, oraz pomoc w interpretacji prawnej i stosowaniu prawa.


Wszystkie systemy AI należące do tych kategorii wysokiego ryzyka będą podlegać ocenie przed wprowadzeniem na rynek oraz przez cały czas ich działania, aby zapewnić ich odpowiednie funkcjonowanie i minimalizować potencjalne zagrożenia dla bezpieczeństwa i praw podstawowych.


Ograniczone ryzyko


Wprowadzenie systemów sztucznej inteligencji o ograniczonym ryzyku wymaga spełnienia minimalnych wymogów przejrzystości, aby umożliwić użytkownikom podejmowanie świadomych decyzji. Po interakcji z aplikacjami użytkownicy powinni mieć możliwość samodzielnego zdecydowania, czy chcą kontynuować korzystanie z tych systemów.


Ważne jest, aby użytkownicy byli świadomi, kiedy wchodzą w interakcję ze sztuczną inteligencją, szczególnie w przypadku systemów generujących lub manipulujących treściami graficznymi, audio lub wideo, takimi jak deepfake. Dzięki temu mogą podejmować odpowiedzialne i świadome decyzje dotyczące korzystania z tych technologii, w pełni rozumiejąc potencjalne ryzyko i konsekwencje związane z ich wykorzystaniem.



Sztuczna inteligencja generująca treść


Prawo dotyczy równiej sztucznej inteligencji generującej treść takiej jak np. popularny ChatGPT. Powinna ona spełniać określone wymogi przejrzystości, tak aby budować zaufanie i odpowiedzialność w jej wykorzystaniu.


W tym kontekście, istotne jest ujawnianie, że treść została wygenerowana przez sztuczną inteligencję, aby użytkownicy byli świadomi, że mają do czynienia z algorytmem, a nie z człowiekiem. Oprócz tego, projektowanie takiego modelu powinno uwzględniać środki zapobiegające generowaniu nielegalnych treści, aby zapewnić pełną zgodność z prawem i ochronę użytkowników.



Jako kancelaria w przypadku wdrożenia systemów AI do swojej pracy, rekomendujemy przede wszystkim:

  • każdorazowe analizowanie ryzyka związanego z jej wykorzystaniem;

  • wdrożenie procedur związanych z możliwością wykorzystania narzędzi AI oraz kontroli;

  • niestosowanie zakazanych przez AI najbardziej ryzykownych zastosowań sztucznej inteligencji, takich jak predykcja kryminalna, rozpoznawanie emocji i biometryczna kategoryzacja osób;

  • przeszkolenie personelu z zakresu korzystania z narzędzi AI i odpowiedzialności (w tym również z zakresu praw własności intelektualnej oraz ochrony danych osobowych).


Zespół kancelarii COGENTS


Ostatnie posty

Zobacz wszystkie

Reklama porównawcza zgodna z prawem

Pokłosiem funkcjonowania gospodarki wolnorynkowej jest działanie wielu przedsiębiorstw, konkurujących ze sobą, które oferują podobne towary lub usługi. Konkurencja jest naturalnym zjawiskiem, należący

bottom of page