15 maja, 2024

Magyar24

Polska Najnowsze wiadomości, zdjęcia, filmy i raporty specjalne z. Polska Blogi, komentarze i wiadomości archiwalne na …

Problem „halucynacji” ChatGPT spotkał się z kolejną skargą dotyczącą prywatności w UE

Problem „halucynacji” ChatGPT spotkał się z kolejną skargą dotyczącą prywatności w UE

Kredyty obrazkowe: Oliviera Daulieri/AFP/Getty Images

OpenAI spotyka się z kolejną skargą dotyczącą prywatności w Unii Europejskiej. Ta sprawa została wniesiona przez organizację non-profit zajmującą się prawami do prywatności noyb W imieniu indywidualnego skarżącego podnosi on, że chatbot ChatGPT oparty na sztucznej inteligencji nie jest w stanie korygować generowanych przez siebie błędnych informacji na temat poszczególnych osób.

Tendencja narzędzi GenAI do generowania fałszywych informacji została dobrze udokumentowana. Ale stawia to również technologię na kursie kolizyjnym z ogólnym rozporządzeniem o ochronie danych (RODO) bloku, które reguluje sposób przetwarzania danych osobowych użytkowników regionalnych.

Kary za nieprzestrzeganie RODO mogą sięgać nawet 4% całkowitej rocznej sprzedaży globalnej. Co ważniejsze dla bogatego w zasoby giganta, takiego jak OpenAI: organy regulacyjne ds. ochrony danych mogłyby nakazać zmiany w sposobie przetwarzania informacji, zatem wprowadzenie RODO mogłoby zmienić sposób działania narzędzi generatywnej sztucznej inteligencji w UE.

OpenAI zostało już zmuszone do wprowadzenia pewnych zmian po wczesnej interwencji włoskiego organu ochrony danych, który na krótko zmusił ChatGPT do lokalnego zamknięcia w 2023 r.

Teraz firma noyb złożyła swoją najnowszą skargę dotyczącą RODO przeciwko ChatGPT do austriackiego organu ochrony danych w imieniu anonimowego skarżącego (opisanego jako „osoba publiczna”), który stwierdził, że chatbot oparty na sztucznej inteligencji podał nieprawidłową datę urodzenia.

Zgodnie z ogólnym rozporządzeniem o ochronie danych obywatelom UE przysługuje szereg praw związanych z informacjami na ich temat, w tym prawo do poprawienia nieprawidłowych danych. noyb twierdzi, że OpenAI nie wywiązuje się z tego obowiązku w odniesieniu do wyników swojego chatbota. Powiedziała, że ​​firma odrzuciła wniosek skarżącej o poprawienie błędnej daty urodzenia, uznając, że skorygowanie jej jest technicznie niemożliwe.

Zamiast tego oferował filtrowanie lub blokowanie danych na podstawie określonych monitów, takich jak imię i nazwisko osoby składającej skargę.

READ  Stellantis wycofał 285 000 sedanów ze względu na możliwe uszkodzenie napełniaczy bocznych poduszek powietrznych.

OpenAI Polityka prywatności Stanowi, że użytkownicy, którzy zauważą, że ich chatbot AI wygenerował „niedokładne informacje o Tobie”, mogą przesłać „prośbę o sprostowanie” za pośrednictwem Privacy.openai.com Lub pocztą elektroniczną na adres [email protected]. Jednakże zastrzega tę kwestię zastrzeżeniem: „Ze względu na techniczną złożoność działania naszych modeli, możemy nie być w stanie poprawić niedokładności w każdym przypadku”.

W tym przypadku OpenAI sugeruje użytkownikom zażądanie całkowitego usunięcia ich danych osobowych z wyników ChatGPT – poprzez wypełnienie formularza formularz internetowy.

Problemem giganta AI jest to, że przysługujące mu uprawnienia RODO nie mają charakteru selektywnego. Mieszkańcy Europy mają prawo prosić o sprostowanie. Mają także prawo żądać usunięcia swoich danych. Jednak, jak podkreśla Noib, OpenAI nie ma prawa wybierać żadnego z dostępnych praw.

Inne elementy skargi skupiają się na kwestiach związanych z przejrzystością RODO, przy czym Noib utrzymuje, że OpenAI nie jest w stanie zidentyfikować źródła danych o osobach, które generuje, ani danych o ludziach, które chatbot przechowuje.

Jest to ważne, ponieważ rozporządzenie po raz kolejny przyznaje osobom fizycznym prawo do żądania takich informacji poprzez złożenie tzw. wniosku o dostęp do danych osobowych (SAR). Jednakże OpenAI nie odpowiedziało odpowiednio na SAR skarżącego i nie ujawniło żadnych informacji na temat przetwarzanych danych, ich źródeł ani odbiorców.

Komentując skargę w oświadczeniu, Maartje de Graaf, prawnik ds. ochrony danych w firmie Noyb, powiedział: „Fabrykowanie fałszywych informacji samo w sobie jest dużym problemem. Jednak fałszywe informacje na temat konkretnych osób mogą skutkować poważnymi konsekwencjami. Oczywiste jest, że firmy nie są obecnie w stanie zapewnić zgodności chatbotów takich jak ChatGPT z prawem UE podczas przetwarzania danych osobowych. Jeśli system nie może dawać dokładnych i przejrzystych wyników, nie można go używać do generowania danych o poszczególnych osobach. Technologia musi spełniać wymogi prawne, a nie odwrotnie.

Firma oświadczyła, że ​​zwraca się do austriackiego organu ochrony danych o zbadanie skargi dotyczącej przetwarzania danych przez OpenAI, a także nalega, aby nałożył karę w celu zapewnienia zgodności w przyszłości. Dodała jednak, że „jest prawdopodobne”, że kwestia ta zostanie rozwiązana we współpracy z Unią Europejską.

READ  Jak opodatkowane są NFT: plan IRS

OpenAI spotyka się z bardzo podobną skargą w Polsce. We wrześniu ubiegłego roku lokalny organ ochrony danych wszczął dochodzenie w sprawie ChatGPT w następstwie skargi złożonej przez badacza prywatności i bezpieczeństwa, który również nie był w stanie poprawić nieprawidłowych informacji na jego temat przez OpenAI. W tej skardze zarzuca się także gigantowi AI niedopełnienie wymogów przejrzystości określonych w rozporządzeniu.

Tymczasem włoski organ ochrony danych nadal prowadzi otwarte dochodzenie w sprawie ChatGPT. W styczniu wydał projekt decyzji, stwierdzając wówczas, że według niego OpenAI naruszyło RODO na kilka sposobów, m.in. w związku ze skłonnością chatbota do wytwarzania wprowadzających w błąd informacji o ludziach. Ustalenia dotyczą także innych kwestii merytorycznych, takich jak legalność leczenia.

Władze włoskie dały OpenAI miesiąc na ustosunkowanie się do ustaleń. Ostateczna decyzja wciąż nie została podjęta.

Teraz, po złożeniu kolejnej skargi dotyczącej RODO na jego chatbocie, wzrosło ryzyko, że OpenAI stanie w obliczu kaskady egzekwowania RODO w różnych państwach członkowskich.

Jesienią ubiegłego roku firma otworzyła biuro regionalne w Dublinie – co wydaje się mieć na celu zmniejszenie ryzyka regulacyjnego poprzez przekierowanie skarg dotyczących prywatności składanych przez irlandzką Komisję Ochrony Danych, dzięki mechanizmowi zawartemu w RODO mającym na celu uproszczenie transgranicznego nadzoru nad uskarżanie się. Kierując je do jednego organu państwa członkowskiego, w którym spółka jest „głównym przedsiębiorstwem”.