Włoski regulator nakazał ograniczenie dostępności ChatGPT – błyskawicznie zyskującego na popularności modelu AI. Narzędzie od OpenAI „podpadło” w związku ze złamaniem przepisów RODO. Decyzja Włochów może zapoczątkować serię problemów ChatGPT w Unii Europejskiej.
20 marca doszło do wycieku danych włoskich użytkowników ChatGPT – w nieznane ręce mogły trafić nie tylko zapisy rozmów, ale również informacje o płatnościach subskrybentów usługi. OpenAI zbagatelizowało sprawę, jednak włoski regulator uznał, że doszło do poważnego naruszenia przepisów RODO. W efekcie dostęp do narzędzia został ograniczony.
OpenAI ma teraz czas na ustosunkowanie się do zarzutów. Jeśli tego nie zrobi lub tłumaczenia będą nieprzekonujące, firma może zostać ukarana grzywną w wysokości do 4% rocznego obrotu.
Model AI budzi olbrzymie zainteresowanie, a jednocześnie niepokój – przede wszystkim z punktu widzenia ochrony danych osobowych i kreowania fałszywej, stronniczej narracji, na co szczególnie mogą być narażeni młodzi ludzie.
Właśnie na ten problem zwróciło uwagę Centrum AI i Polityki Cyfrowej w USA, które złożyło skargę do Federalnej Komisji Handlu. Zarzuca twórcom ChatGPT, że model często wprowadza użytkowników w błąd, prezentuje kontrowersyjne, nieobiektywne poglądy, a przy tym może zagrażać prywatności i szeroko pojmowanemu bezpieczeństwu publicznemu.
Cała ta dyskusja wokół ChatGPT może się zakończyć wprowadzeniem restrykcyjnych przepisów, które ograniczą ekspansję modeli AI np. poprzez obowiązek uzyskania krajowej licencji.