Em 2026, os deepfakes devem estar plenamente incorporados ao cenário de risco corporativo, impulsionados pelo amplo acesso às tecnologias de geração de conteúdo sintético, cujo custo caiu cerca de 400 vezes entre 2024 e 2025. A avaliação faz parte de um conjunto de previsões da Kaspersky sobre os impactos da inteligência artificial na cibersegurança corporativa em 2026.
Segundo a empresa, esse tipo de ameaça tende a deixar de ser tratado como um evento pontual e passará a exigir gestão contínua. Práticas como personificação de executivos, fraudes financeiras, manipulação de comunicações internas e ataques direcionados a áreas sensíveis, como finanças, compras e gestão, ampliam os riscos à continuidade dos negócios, à reputação corporativa e à estabilidade financeira.
A Kaspersky destaca que a evolução do áudio sintético deve viabilizar ataques com vozes altamente realistas, ao mesmo tempo em que ferramentas de geração de áudio se tornam mais acessíveis. Esse cenário deve ampliar casos de roubo de identidade, golpes de transferência, manipulação de fornecedores e ataques direcionados ao setor financeiro.
A ausência de sistemas universais confiáveis para identificar conteúdos gerados por inteligência artificial tende a levar empresas a reforçar mecanismos próprios de validação e controle de autenticidade. A recomendação é que esses controles sejam priorizados em processos críticos, como autorizações de pagamento, comunicações internas e gestão de fornecedores, exigindo ajustes operacionais e investimentos em tecnologia e capacitação.
De acordo com as previsões, a IA também deve acelerar e automatizar etapas de ataques cibernéticos que antes demandavam elevado grau de especialização. Desde o planejamento e o desenvolvimento de ferramentas até a criação de infraestruturas e comunicações fraudulentas, a tecnologia reduzirá o tempo de execução e ampliará a escala das operações criminosas.
Como consequência, os ataques tendem a se tornar mais rápidos, personalizados e difíceis de rastrear, aumentando a capacidade de adaptação dos cibercriminosos e a complexidade da defesa corporativa.
A Kaspersky afirma que vem contribuindo com recomendações na área regulatória, mas avalia que a gestão dos riscos associados à IA não pode depender apenas de normas e leis. A empresa defende a incorporação de princípios de segurança e privacidade desde as fases iniciais de concepção, desenvolvimento e implementação de sistemas de IA, ao longo de todo o seu ciclo de vida.
Nesse contexto, decisões sobre permitir, limitar ou restringir o uso da inteligência artificial devem integrar a matriz de risco corporativa e ser formalizadas por meio de políticas internas de governança. Processos, dados e ativos críticos não devem ser automatizados sem avaliações prévias de impacto, controles técnicos, auditorias periódicas e supervisão humana.
“O mais disruptivo em 2026 não será apenas a capacidade técnica dos deepfakes ou da IA, mas também o impacto direto que eles terão na tomada de decisões empresariais. As empresas terão que operar em um ambiente no qual não será mais possível assumir que a informação é autêntica por padrão, o que as obriga a repensar controles, políticas internas e modelos de security by design”, avalia Claudio Martinelli, diretor-geral das Américas na Kaspersky.
“A verdadeira vantagem competitiva não estará mais apenas na detecção de ameaças, mas na construção de modelos de negócios resilientes, onde o uso da IA está alinhado com a matriz de risco e a veracidade das informações deve ser verificada sistematicamente”, concluiu.






