O Dia da Privacidade de Dados, celebrado nesta quarta-feira (28) vem em um contexto de crescente uso de ferramentas de inteligência artificial no ambiente de trabalho e de aumento dos riscos associados à exposição de informações sensíveis. Novas conclusões divulgadas pela empresa de cibersegurança NordVPN indicam que a maioria dos brasileiros ainda não compreende os impactos desse uso sobre a privacidade de dados.
De acordo com dados do Teste Nacional de Privacidade (NPT, na sigla em inglês) de 2025, 89% dos brasileiros não sabem quais aspectos de privacidade devem ser considerados ao utilizar ferramentas de IA no trabalho. O levantamento aponta que milhões de profissionais recorrem a assistentes como ChatGPT, Copilot e outras soluções generativas para aumentar a produtividade, muitas vezes sem avaliar os riscos envolvidos.
Segundo a NordVPN, esse comportamento pode resultar na exposição inadvertida de dados pessoais e corporativos.
“A adoção da IA no trabalho foi muito mais rápida do que o entendimento dos riscos que ela oferece. As pessoas digitam informações confidenciais nas ferramentas de IA sem saber para onde esses dados vão, como eles são armazenados e quem pode ter acesso a eles”, diz Marijus Briedis, diretor de tecnologia da NordVPN.
Briedis destaca que as interações com ferramentas de IA diferem das trocas de informação entre colegas de trabalho. “As interações com a IA são muito diferentes das conversas com os colegas porque podem ser registradas, analisadas e possivelmente usadas para treinar modelos futuros. Quando os funcionários inserem informações sobre os clientes, estratégias internas ou dados pessoais nos assistentes de IA, eles podem criar, sem querer, vulnerabilidades de privacidade”, afirma.
Riscos
O estudo também aponta que os riscos associados ao uso de inteligência artificial extrapolam o ambiente de trabalho. Os brasileiros enfrentam dificuldades para proteger seus dados pessoais e têm sido alvo, com maior frequência, de golpes que utilizam recursos de IA.
O Teste Nacional de Privacidade mostra que 45% dos brasileiros não conseguem identificar corretamente fraudes comuns baseadas em inteligência artificial, como deepfakes e clonagem de voz. Além disso, a tecnologia já permite a criação de vídeos com movimentos realistas, o que dificulta ainda mais a identificação de conteúdos fraudulentos.
As consequências desse tipo de ataque já são perceptíveis. Segundo uma pesquisa anterior da NordVPN, uma em cada três pessoas no mundo entrou em contato com algum tipo de golpe online nos últimos dois anos. Entre as vítimas, 49% relataram perdas financeiras, e 20% afirmaram prejuízos superiores a US$ 100.
“A IA facilitou a prática de crimes cibernéticos. Não são mais necessários conhecimentos técnicos para redigir um e-mail de phishing convincente, clonar uma voz ou criar um site de compras falso quase idêntico ao real”, afirma Briedis. “Os golpistas usam a IA para criar réplicas quase perfeitas de sites de lojas populares. Nunca foi tão fácil se tornar um criminoso cibernético.”
De acordo com especialistas da NordVPN, a tendência é de agravamento do cenário. A empresa projeta que ataques baseados em inteligência artificial estarão entre os principais riscos de cibersegurança em 2026, com métodos cada vez mais sofisticados para explorar falhas de privacidade e segurança.






