top of page
Szukaj

OpenAI a ochrona danych osobowych

W ostatnim czasie pojawiła się informacja o wytoczeniu powództwa przez rzekomych poszkodowanych działaniem sztucznej inteligencji (m.in. ChatGPT) przeciwko spółkom zrzeszonym wokół projektu OpenAI, wśród których jest m.in. spółka Microsoft. Postępowanie jest prowadzone przed sądem w USA, a sprawa dotyczy niezgodnego z prawem pozyskiwania i wykorzystywania danych osobowych i własności intelektualnej.


W kwestii danych osobowych coraz więcej organów nadzorujących ochronę danych osobowych interesuje się kwestią przetwarzania ich przez narzędzia OpenAI. Pod koniec marca 2023 r. włoski organ ochrony danych osobowych zablokował działalność ChatGPT we Włoszech. Uzasadniając swoją decyzję tym, że działanie chatu opartego na sztucznej inteligencji narusza unijne przepisy dotyczące prywatności. Włoski DPA poddaje pod wątpliwość czy istnieją przepisy prawa pozwalające na masowe gromadzenie i przechowywanie danych osobowych w celu tzw. szkolenia algorytmów. Jak wiadomo ChatGPT jest narzędziem samouczącym się. Co więcej organ wskazał, że chat nie dokonuje w żaden sposób weryfikacji wieku jego użytkowników, pomimo że teoretycznie przeznaczony jest dla użytkowników powyżej 13 roku życia. Włoski DPA w decyzji wskazuje, że doszło do naruszenia aż 5 artykułów RODO.


Zgodnie z art. 5 RODO nakazuje on, aby przetwarzanie danych było: zgodne z prawem, rzetelne, przejrzyste dla osób, której te dane dotyczą. Ponadto, dane powinny być zbierane w konkretnych i uzasadnionych celach, a ich zakres powinien być ograniczony do niezbędnego minimum. W przypadku ChatGPT nie mamy pewności w jaki sposób dokładnie przetwarzane są nasze dane. Przede wszystkim główną niewiadomą stanowi to w jaki sposób sztuczna inteligencja pozyskuje dane osobowe – do „szkolenia” sztuczna inteligencja potrzebuje ogromnych ilości danych osobowych wszelkiego rodzaju.


Wiadomą jest za to, że obecnie sztuczna inteligencja stosuje tzw. „scraping”, czyli za pomocą botów przeszukuje Internet i kopiuje dane znalezione na stronach internetowych. ChatGPT przeszukuje i śledzi cały Internet, co oznacza, że zbiera on też dane dotyczące np. wpisów online, form osobistej komunikacji, interakcji online klienta z obsługą sklepu internetowego itp. Co oznacza, że w konsekwencji dysponuje on szerokim wachlarzem informacji, w tym prywatnych/osobistych np. o czyichś zainteresowaniach, poglądach religijnych czy politycznych, orientacji seksualnej, tożsamości, sytuacji finansowej, stanie zdrowia, historii pracy, zdjęciami, lokalizacji, upodobaniach, miejscu zamieszkania i tak dalej. Taki zakres danych zdecydowanie nie jest niezbędnym minimum, ponieważ pozwala on na identyfikację danej osoby, zagraża jej prywatności, naraża ją na kradzież tożsamości czy na stanie się ofiarą oszust finansowych.


Z początku OpenAI powstało jako laboratorium badawcze o charakterze non-profit. Wówczas sztuczna inteligencja miała przynieść korzyści całemu społeczeństwu. Natomiast w 2019 r. OpenAI skupiło swoją działalność na generowaniu zysków z narzędzi sztucznej inteligencji. Stworzenie najpotężniejszej i tym samym najbardziej dochodowej sztucznej inteligencji wymaga pozyskania ogromnej ilości danych, w czym ma pomóc superkomputer zbudowany we współpracy z Microsoft. OpenAI w swojej polityce prywatności, że przetwarza dane osobowe w celu ulepszenia swoich usług, prowadzenia badań oraz opracowywania nowych programów. Te właśnie podstawy przetwarzania danych są kwestionowane przez włoski DPA oraz stanowią zarzut w sprawie sądowej prowadzonej w USA.


Co więcej, przetwarzanie przez ChatGPT danych szczególnych, czyli danych o szczególnie wrażliwym charakterze, jak stan zdrowia czy orientacja seksualna, jest zgodnie z RODO zabronione. Wyjątkiem są warunki wskazane w art. 9 ust. 2 RODO – m.in. jeżeli osoba, której dane wrażliwe są przetwarzane wyrazi na to zgodę. A jako że przetwarzanie i zbieranie danych osobowych przez sztuczną inteligencję nie jest do końca jasnym procesem, nie możemy mówić w tym przypadku o udzieleniu zgody. Co prawda jednym z kryterium wyjątku są badania naukowe, jednakże w tym przypadku dane powinny być przetwarzane w sposób niezbędny do osiągnięcia danego celu, nie może naruszać istoty prawa do ochrony danych osobowych i musi odbywać się z zastosowaniem odpowiednich zabezpieczeń. Zgodnie z art. 89 ust. 1 RODO środki zabezpieczające powinny minimalizować dane, pseudonimować oraz je zanonimizować, o ile pozwala to zrealizować założony cel. RODO nie przewiduje zatem zezwolenia na przetwarzanie i zbieranie danych szczególnie wrażliwych ze względu na rozwijanie czy tworzenie nowych usług bez zgody osoby, której dane są przetwarzane.


Kolejnym zarzutem jakie włoski DPA stwierdził dotyczy niewystarczającego informowania użytkowników i innych zainteresowanych stron, o tym w jaki sposób dane są gromadzone przez OpenAI. Przepisy RODO nakładają obowiązek przekazania informacji podmiotów, do których dane należą w jaki sposób będą zbierane oraz przetwarzane, w tym czy są pozyskiwane ze źródła innego niż bezpośrednio od właściciela tych danych. Kolejnym problemem jest to, czy ChatGPT realizuję instytucję prawa do bycia zapomnianym, czyli do żądania w określonych przypadkach niezwłocznego usunięcia naszych danych osobowych. Chat generuje odpowiedzi na podstawie danych, więc jest praktycznie niemożliwym ich trwałe usunięcie.


Na ten moment korzystanie z narzędzi sztucznej inteligencji, w tym ChatGPT jest ponownie możliwe we Włoszech, jednak kraj ten dalej ma otwarte zastrzeżenia względem OpenAI i oczekuje dalszych wyjaśnień. Tymczasem ustawodawcy z Unii Europejskiej pracują nad regulacjami, które mają na celu monitorowanie rozwoju sztucznej inteligencji i sklasyfikowanie narzędzi AI zgodnie z poziomami ryzyka. Powyższe ryzyka i zagrożenia jasno wskazują, że konieczne jest uregulowanie odpowiednimi przepisami działalności sztucznej inteligencji.


Zespół kancelarii COGENTS


Ostatnie posty

Zobacz wszystkie

댓글


bottom of page