A inteligência artificial (IA) já faz parte da minha rotina e da rotina de milhões de pessoas no mundo todo. Ferramentas como ChatGPT e Gemini se tornaram quase invisíveis no dia a dia, estão presentes em chats de atendimento, recomendações, diagnósticos e, muitas vezes, até nos bastidores das decisões de negócios importantes. Com tanta popularidade, a IA também passou a ser alvo. Ataques digitais, como a injeção de prompt em navegadores, surgiram justamente nessa brecha entre confiança e desconhecimento.
O que é a injeção de prompt e por que ela preocupa?
Recentemente, li sobre um fenômeno que começa a preocupar especialistas: a injeção de prompt em chats de IA. O ataque tem um mecanismo simples, mas resultados graves. Hackers identificam falhas de segurança em navegadores comuns e, ao explorar essas brechas, conseguem inserir códigos maliciosos ocultos em páginas visitadas por qualquer um de nós.
Estes comandos, quando copiados e colados (às vezes automaticamente) em chats de IA como o ChatGPT, permitem que o criminoso “converse” com o robô por meio do usuário, manipulando as respostas do sistema. As consequências podem ser sérias: do roubo de credenciais ao monitoramento da conversa, passando inclusive por fraudes sofisticadas, como já vimos no caso do ataque HashJack e em falhas recentes que levaram ao vazamento de dados no ChatGPT.
Fique atento: até seu histórico de conversas pode ser alvo dessa ação.
Esses casos mostram que, por trás da facilidade de interagir com uma IA, há riscos que nunca imaginamos nas primeiras pesquisas. O crescimento de 126% no uso de deepfakes no Brasil para fraudes na América Latina é apenas um exemplo do quanto o tema se tornou quente. Até dados como e-mails e nomes de clientes da OpenAI já vazaram por falhas técnicas, mostrando que nenhuma tecnologia é perfeita.
A boa notícia? Proteger-se desses ataques está a poucos passos de distância de qualquer usuário atento. Vou compartilhar, a seguir, cinco passos que adotei e recomendo para garantir que a IA jogue sempre a nosso favor.
Passo 1: Mantenha uma postura desconfiada diante da IA
Eu me peguei várias vezes aceitando respostas de chats de IA como se fossem a verdade absoluta. Mas, na prática, a IA não é infalível e pode, sim, oferecer informações erradas ou até enganosas. Isso fica ainda mais sensível quando existe a possibilidade de que algum comando malicioso tenha sido inserido no prompt por meio de uma página web comprometida.
Neste cenário, assim como faço, recomendo que você:
- Sempre confira as informações fornecidas por IA em fontes que você confia.
- Desconfie de respostas que sugerem realizar transações financeiras ou clicar em links desconhecidos.
- Desconfie de anexos recebidos via chat de IA.
- Fique atento a possíveis armadilhas de phishing ou tentativas de manipular suas respostas.
Adotar uma postura questionadora e crítica reduz o risco de ser enganado por respostas alteradas. Em certos casos, a manipulação pode passar despercebida, por isso, melhor um segundo olhar do que um grande problema depois.
Passo 2: Nunca compartilhe dados pessoais ou bancários
Sabendo que chats de IA são gravados e eventualmente analisados para melhoria de algoritmo, adotei a regra: Nunca envio nenhum dado sensível, como CPF, senhas ou informações bancárias nesses chats. O risco de esses dados serem captados em um ataque é real.
Se você pensar em segurança básica, compartilhar estes dados é como entregar a chave da sua casa a estranhos. Caso um hacker intercepte a conversa, tudo fica vulnerável. Já investiguei casos em que informações vazadas prejudicaram famílias e empresas inteiras, exigindo meses para corrigir estragos. Não vale a pena correr o risco.

Passo 3: Atualize sempre o navegador e sistemas
Lembro de um alerta recente sobre atualizações de navegador. Sabia que grande parte dos ataques de injeção de prompt ocorre exatamente por vulnerabilidades em browsers?
Mantenho todos os sistemas e navegadores que uso atualizados, e recomendo fortemente a mesma prática. Fabricantes costumam lançar patches de segurança logo que descobrem brechas. Ignorar essas atualizações significa deixar a porta aberta para invasores, mesmo em softwares muito usados e aparentemente seguros.
O costume de “deixar para depois” pode acabar custando caro. Reserve alguns minutos para atualizar seu navegador ao menos uma vez por semana. Na dúvida, sempre prefira a versão mais recente. Para quem, como a Fábrica de Agentes, pensa em soluções seguras sob medida, isso faz parte da cultura de prevenção já no dia a dia dos clientes.
Passo 4: Revise cada dado sugerido pela IA
Com o crescimento das tentativas de phishing e vazamento de dados por IA, desenvolvi o hábito de checar cuidadosamente tudo que recebo ou extraio dessas plataformas: nomes, links, e-mails ou telefones. Um simples erro de digitação pode esconder uma ameaça inesperada.
Já percebi ataques nos quais um endereço de e-mail estava apenas um caractere diferente do original, ou um link sugerido levava para uma página falsa quase idêntica à real. O cuidado, aqui, faz toda a diferença:
- Não clique automaticamente em nenhum link recebido de chat de IA.
- Antes de compartilhar ou processar informações, pesquise rapidamente em buscadores conhecidos.
- Desconfie de qualquer dado que envolva seus dados pessoais ou da empresa.
Neste contexto, recomendo fortemente materiais como artigos sobre riscos em chats de IA, muitos deles trazem exemplos atuais do que observar e evitar.

Passo 5: Ative a autenticação multifator (MFA) em suas contas
Vi de perto situações em que o vazamento de e-mails, como o caso recente com a OpenAI, abriu portas para ataques mais sérios. A autenticação multifator (MFA) pode parecer apenas mais uma etapa, mas virou regra para mim, especialmente em contas ligadas a IA.
Mesmo se suas credenciais forem roubadas, o criminoso não conseguirá acessar sua conta sem o código de autenticação adicional. Isso impede muitos ataques que dependem apenas de login e senha para se concretizar.
Diversos serviços, inclusive muitos que envolvem IA, já oferecem a opção de MFA. Configure assim que possível, principalmente em contas que armazenam dados sensíveis ou informações de trabalho.
Conclusão: proteção é responsabilidade contínua
Encarar a IA como ferramenta de trabalho exige, sim, responsabilidade. Devo admitir: já fui mais descuidado com informações e configurações, mas percebi que pequenos hábitos mudam tudo. Como mostrei nos passos acima, proteger-se de ataques a chats de IA está ao alcance de todos, desde atenção diária até configurações rápidas em suas contas.
- Mantenha uma postura crítica diante das respostas da IA.
- Jamais compartilhe dados pessoais, bancários ou sigilosos em chats.
- Atualize sempre seus navegadores e sistemas operacionais.
- Revise cuidadosamente todos os dados sugeridos por chats de IA.
- Ative a autenticação multifator em todas as contas possíveis.
Empresas como a Fábrica de Agentes já apostam em soluções sob medida que incluem segurança desde o início do projeto, justamente para evitar dores de cabeça futuras. Para quem quer entender mais sobre o universo da inteligência artificial e sua aplicação segura em negócios, vale acompanhar o conteúdo atualizado do nosso blog, sempre trazendo novidades e alertas relevantes para o dia a dia.
Se você, assim como eu, acredita que a IA pode transformar seu negócio sem colocar em risco seus dados, procure conhecer mais sobre agentes inteligentes, boas práticas de segurança e casos reais do mercado. Recomendo a leitura de reflexões sobre uso responsável, como a visão de especialistas sobre riscos, além de temas voltados para empresas em como estruturar o uso de IA sem medo e os debates sobre navegadores com IA nativa.
Faça sua parte. Sua segurança e a segurança dos seus dados está em suas mãos. E, claro, se quiser saber como a Fábrica de Agentes pode ajudar a criar soluções sob medida, pensadas para proteger suas operações, não hesite em falar conosco.
