Com a popularidade das inteligências artificiais (IAs), cada vez mais pessoas recorrem a ferramentas como o ChatGPT para auxiliar em tarefas do dia a dia. Inclusive, algumas usam o chatbot como uma espécie de psicólogo. Contudo, é importante saber informações que você não deve compartilhar com IAs.
Em primeiro lugar, a base de dados da IA que você está utilizando é gerenciada por uma empresa. Além disso, nem sempre os sistemas de segurança podem garantir que esses dados permanecerão sem vazamentos.
Suas informações pessoais podem ser usadas por criminosos para diversos fins, desde roubar seu dinheiro até fazer empréstimos em seu nome. Por isso, a CNN reuniu dicas com sete informações que você não deve compartilhar com IAs. Confira:
- Informações pessoais
Nome completo, data de nascimento, dados dos seus documentos e outras informações pessoais jamais devem ser compartilhadas com inteligências artificiais ou pessoas anônimas na internet. Caso seus dados vazem, indivíduos maliciosos podem utilizá-los para realizar fraudes em seu nome.
Mesmo números de telefone e endereços de e-mail devem ser evitados em conversas com IAs. Embora esses chatbots não armazenem especificamente essas informações, seus dados ainda podem ficar vulneráveis a vazamentos.
- Logins e senhas
Não use inteligências artificiais para armazenar logins e senhas de redes sociais ou de qualquer outro site. Essas informações devem ser memorizadas ou guardadas em um ambiente digital seguro, como um gerenciador de senhas. Além disso, nunca compartilhe senhas com pessoas em quem você não confia totalmente.
- Dados do trabalho
Dependendo do seu ramo de atuação, as informações da empresa devem ser totalmente confidenciais. Por isso, nunca insira dados ou assuntos internos de trabalho no ChatGPT ou em qualquer outra IA — conteúdos sigilosos devem ser mantidos apenas entre você e sua equipe.
Dados relacionados à propriedade intelectual também devem ser mantidos em sigilo, pois compartilhá-los com chatbots pode causar sérios problemas. A divulgação indevida pode resultar em penalidades legais, como multa ou até prisão.
Em um caso conhecido que ocorreu em 2023, um funcionário da Samsung vazou acidentalmente dados sensíveis da empresa ao usar o ChatGPT. Como consequência, ele foi demitido.
- Informações bancárias
Nunca envie documentos pessoais ou qualquer arquivo com informações sensíveis para uma IA, como dados bancários, números de cartão de crédito, senhas e outros dados confidenciais. A maioria dos crimes digitais envolve o uso indevido dessas informações, por isso é essencial evitar que elas caiam nas mãos de criminosos.

- Pensamentos e emoções
Hoje em dia, já existem IAs desenvolvidas para atuar como “amigos” ou até como psicólogos virtuais. Porém, especialistas alertam que isso é imprudente. Evite compartilhar pensamentos muito pessoais ou relacionados às suas emoções, pois as IAs não compreendem sentimentos humanos e podem responder de forma inadequada.
Em um caso recente, um adolescente tirou a própria vida após interpretar os conselhos de uma IA como um incentivo ao suicídio. Se você estiver passando por dificuldades emocionais, busque apoio com amigos e familiares ou entre em contato com o Centro de Valorização da Vida (CVV) pelo número 188.
- Informações médicas
Assim como o ChatGPT não é um psicólogo, nenhuma IA pode substituir um médico. Por isso, evite enviar informações médicas para chatbots na tentativa de obter respostas sobre exames.
Além disso, a Lei Geral de Proteção de Dados (LGPD) garante a proteção das informações pessoais dos cidadãos brasileiros, incluindo dados sensíveis, como resultados de exames médicos. Por isso, anexar esse tipo de documento em um chatbot pode causar uma violação da LGPD.
É importante destacar que apenas um profissional credenciado tem a capacidade de fazer diagnósticos. Apesar de existirem IAs desenvolvidas exatamente para auxiliar em diagnósticos, elas devem ser operadas por médicos qualificados que sabem interpretar os dados corretamente.
- Atividades ilegais ou inapropriadas
Entre todos os itens da lista, este é o mais óbvio. O ChatGPT não foi desenvolvido para responder perguntas relacionadas a atividades ilegais. Por isso, ele não ajudará em nada que seja considerado antiético ou que represente risco à segurança de outras pessoas.
Além disso, se o conteúdo inserido no prompt for inadequado, a IA pode armazenar essas informações para revisão e isso pode resultar em denúncias contra você.
Alexa do ChatGPT? OpenAI lança novo recurso de assistente virtual
Este conteúdo foi originalmente publicado em ChatGPT: 7 informações que você não deve compartilhar com IAs no site CNN Brasil.