
Com a popularização dos chatbots de inteligência artifical, como o ChatGPT da OpenAI e o Gemini da Google, milhões de usuários interagem diariamente com essas ferramentas. No entanto, você sabe quais são as coisas que você nunca deve dizer ao ChatGPT?

Saiba quais são as coisas que você nunca deve dizer ao ChatGPT – Foto: Freepik/ND
Especialistas alertam que, apesar de essas plataformas oferecerem respostas rápidas e úteis, existem riscos de privacidade ao compartilhar informações sensíveis.
Cinco informações que nunca deve dizer ao ChatGPT
1. Dados pessoais
Em primeiro lugar essa é a informação que você nunca deve dizer ao ChatGPT. Evite inserir informações como número de identidade, CPF, passaporte, endereço, telefone e data de nascimento. Esses dados podem ser usados por cibercriminosos em golpes e fraudes de identidade.
2. Resultados de exames médicos
Muitos usuários buscam a ajuda de chatbots para interpretar resultados laboratoriais. No entanto, enviar esses documentos sem anonimizar informações pode comprometer sua privacidade e expor dados de saúde.
3. Informações financeiras
Nunca compartilhe números de contas bancárias, cartões de crédito ou senhas. Um estudo do Cybersecurity & Infrastructure Security Agency (CISA) dos Estados Unidos reforça que qualquer dado financeiro inserido em sistemas de IA pode ser interceptado em caso de brechas de segurança.
4. Dados sigilosos da empresa
Se você usa chatbots para otimizar tarefas do trabalho, tenha cautela ao compartilhar documentos internos, informações de clientes ou estratégias empresariais. O vazamento desses dados pode comprometer a segurança e a competitividade do seu negócio.
5. Credenciais de login
Nunca use chatbots como “cofres digitais” para armazenar senhas, PINs ou outras credenciais. Caso essas plataformas sejam alvo de ataques cibernéticos, seus dados podem ser comprometidos.

Após essas cinco coisas que você nunca deve dizer ao ChatGPT, o que você irá fazer? – Foto: Canva/ND
Chatbots aprendem com os usuários
Um estudo publicado na revista ACM Transactions on Privacy and Security afirma que os modelos de IA são treinados com grandes volumes de dados para melhorar suas respostas. Por isso, quanto mais informações você fornecer, mais preciso será o retorno da ferramenta.
No entanto, ao usar essas informações que você nunca deve dizer ao ChatGPT, seus dados pessoais e sigilosos a riscos de segurança, caso ocorra uma falha no sistema ou uma violação de dados.
O estudo alerta que ferramentas baseadas em IA podem reter fragmentos de informações sensíveis, tornando-se vulneráveis a acessos não autorizados. Além disso, uma pesquisa do MIT Computer Science and Artificial Intelligence Laboratory destaca que ataques cibernéticos direcionados a esses sistemas podem explorar dados armazenados temporariamente em suas interações.

Ferramentas baseadas em IA podem reter fragmentos de informações sensíveis; quais as coisas que você nunca deve dizer ao ChatGPT – Foto: Canva/ND
Como se proteger
Para minimizar riscos ao interagir com chatbots, siga estas recomendações:
- Apague regularmente suas conversas: algumas plataformas permitem excluir o histórico de chats, reduzindo o risco de exposição futura.
- Utilize modos temporários: algumas ferramentas oferecem chats sem registro de histórico, semelhantes ao modo anônimo dos navegadores.
- Evite compartilhar documentos diretamente: caso precise analisar um texto ou imagem, remova qualquer informação sensível antes do envio.
- Utilize versões empresariais pagas: empresas que necessitam de mais segurança podem investir em versões profissionais de chatbots, que oferecem maior proteção de dados.
A segurança digital é uma responsabilidade compartilhada entre usuários e desenvolvedores de IA. Ao adotar medidas preventivas, é possível aproveitar os benefícios dos chatbots sem comprometer informações sensíveis.