ChatGPT vaza dados pessoais de usuários após pedidos simples

Arquivado em:
Publicado Quinta, 30 de Novembro de 2023 às 14:08, por: CdB

Utilizando variadas palavras, os pesquisadores foram capazes de encontrar 10 mil casos de exposição de dados pessoais no ChatGPT. Além dos telefones e e-mails, o grupo encontrou trechos de estudos protegidos por direitos autorais.


Por Redação, com Canaltech - de Washington


Um pedido relativamente simples levou à exposição de dados pessoais de executivos pelo ChatGPT. Para um time de pesquisadores americanos, bastou pedir que a inteligência artificial repetisse palavras indefinidamente para que, em determinado momento, ela respondesse com e-mails e números de telefone de pessoas reais, algumas em cargos de gerência.




chat.jpg
Ao receber prompt para repetir palavras, ChatGPT entregou telefones e e-mails de usuários cujos dados foram alimentados na inteligência artificial

De acordo com os especialistas, 16,9% dos pedidos pela repetição de palavras simples levaram à exposição de dados pessoais de pessoas reais. A exploração foi revelada em um estudo conjunto do Google DeepMind, time da gigante focado em segurança de IA, e das universidades de Washington, Cornell, Carnegie Mellon, California Berkeley e ETH Zurich.


Em um dos casos, o prompt inserido pedia que o ChatGPT repetisse a palavra "poema" para sempre. Após algumas respostas corretas, a IA indicou o e-mail e número de telefone do CEO e fundador de uma empresa. O mesmo aconteceu com um pedido igual, mas pela palavra "companhia", com o diretor de um escritório de advocacia dos EUA tendo seus contatos diretos revelados.


Utilizando variadas palavras, os pesquisadores foram capazes de encontrar 10 mil casos de exposição de dados pessoais no ChatGPT. Além dos telefones e e-mails, o grupo encontrou trechos de estudos protegidos por direitos autorais, endereços de carteiras de Bitcoin, nomes, datas de aniversário e identificadores de redes sociais. Em alguns dos exemplos, as informações puderam ser rastreadas a indivíduos específicos.


Outras respostas consideradas inadequadas também surgiram ao lado de trechos de poesia e listas de companhias, conforme pedido. Transcrições de entrevistas armazenadas nos servidores de sites de notícias e conteúdo explícito publicado em páginas eróticas apareceram entre os resultados, que foram obtidos com um gasto de US$ 200, cerca de R$ 985, no ChatGPT.



Vulnerabilidade foi corrigida, mas acende alerta


A exploração foi considerada como "boba" pelos pesquisadores, mas chamou a atenção tanto pela permanência de dados pessoalmente identificáveis nos servidores do ChatGPT quanto pela alimentação de tais informações pelos usuários. A ideia é que um cibercriminoso poderia gastar mais dinheiro do que os estudiosos, a partir de meios roubados, e usar scripts para obter as informações vazadas.


A OpenAI foi informada sobre o estudo antes da publicação e tratou a questão como uma falha de segurança que foi corrigida em 30 de agosto. Entretanto, apuração do site americano Engadget ainda foi capaz de reproduzir os resultados nesta semana, com a responsável pelo ChatGPT não se pronunciando sobre o assunto.


Enquanto o pedido dos pesquisadores é por mais mecanismos de segurança que impeçam a alimentação de informações sensíveis não apenas neste, mas em todo mecanismo de IA, o alerta também fica para os usuários. Empresas como a Samsung, por exemplo, chegaram a proibir o uso do ChatGPT em suas operações, justamente, por conta do risco de exposição de dados sigilosos, em um problema que só cresce na medida em que os modelos de linguagem evoluem e seus utilizadores não se atentam ao perigo.




Edição digital

 

Utilizamos cookies e outras tecnologias. Ao continuar navegando você concorda com nossa política de privacidade.

Concordo