ChatGPT-producenten OpenAI planlægger at præsentere foranstaltninger på torsdag for at afhjælpe bekymringer, der førte til et italiensk forbud mod chatbot i sidste uge, sagde Italiens databeskyttelsesagentur Garante.
Microsoft-støttet OpenAI tog ChatGPT offline i Italien, efter at Garante i sidste uge midlertidigt begrænsede det og påbegyndte en undersøgelse af et formodet brud på reglerne om privatlivets fred.
Agenturet anklagede i sidste uge OpenAI for at undlade at kontrollere alderen på ChatGPT-brugere og “fraværet af noget juridisk grundlag, der retfærdiggør den massive indsamling og opbevaring af personlige data”.
Torsdag sagde den, at den ikke har til hensigt at bremse udviklingen AI men gentog vigtigheden af at overholde regler, der sigter mod at beskytte italienske og europæiske borgeres personoplysninger.
I en videokonference sent på onsdag, hvor CEO Sam Altman deltog, lovede OpenAI at være mere gennemsigtig omkring den måde, den håndterer brugerdata på og verificerer brugerens alder, sagde Garante.
Selskabet sagde, at det ville sende Garante et dokument om foranstaltninger til at reagere på dets anmodninger på torsdag.
Datamyndigheden sagde, at den ville evaluere forslagene fra OpenAI. En kilde med kendskab til sagen sagde, at det sandsynligvis ville tage flere dage at vurdere indholdet af brevet.
OpenAI, som er baseret i San Francisco, reagerede ikke på en anmodning om kommentar til agenturets udtalelse.
Torsdag offentliggjorde virksomheden et blogindlæg med titlen “Vores tilgang til AI-sikkerhed”, som sagde, at det arbejdede på at udvikle “nuancerede politikker mod adfærd, der repræsenterer en reel risiko for mennesker.”
“Vi bruger ikke data til at sælge vores tjenester, reklamer eller opbygge profiler af mennesker,” hedder det. “Vi bruger data til at gøre vores modeller mere nyttige for folk. ChatGPT, for eksempel, forbedres ved at træne videre i de samtaler, folk har med det.
“Mens nogle af vores træningsdata inkluderer personlige oplysninger, der er tilgængelige på det offentlige internet, ønsker vi, at vores modeller lærer om verden, ikke privatpersoner.”
Virksomheden sagde, at det fjernede personlige oplysninger fra sine datasæt, hvor det var muligt, finjusterede modeller for at afvise brugerbeskeder, der beder om sådanne oplysninger, og ville reagere på individuelle anmodninger om at slette deres data fra sine systemer.
Italiens forbud har vakt interesse hos andre privatlivsregulatorer i Europa, som undersøger, om der er behov for skrappere foranstaltninger for chatbots, og om de skal koordinere sådanne handlinger.
I februar forbød Garante AI-chatbot-virksomheden Replika at bruge italienske brugeres personlige data, med henvisning til risici for mindreårige og følelsesmæssigt skrøbelige mennesker.
© Thomson Reuters 2023