A adoção de tecnologias voltadas ao aprimoramento da privacidade em sistemas de inteligência artificial (IA) ainda avança de forma lenta no Brasil. É o que revela o estudo Privacidade em Camada, conduzido pelo centro de pesquisas Reglab, especializado em tecnologia e regulação.
A pesquisa ouviu profissionais técnicos com experiência em cibersegurança e compliance em proteção de dados pessoais. Os especialistas avaliaram diferentes tecnologias conhecidas pela sigla em inglês PETs (Privacy Enhancing Technologies) e analisaram o estágio de adoção dessas ferramentas no país. A conclusão é que elas podem contribuir significativamente para a proteção de dados pessoais, mas encontram barreiras como custos elevados, ausência de padronização e falta de literacia em privacidade.
As PETs buscam justamente reduzir riscos de violação de privacidade em sistemas que utilizam dados. O estudo analisou diferentes técnicas:
- Privacidade diferencial, que insere ruído estatístico nos dados para reduzir riscos de identificação.
- Ambiente de execução confiável, que cria um “cofre digital” para processamento seguro de informações.
- Dados sintéticos, gerados artificialmente para simular situações reais.
- Aprendizado federado, em que os dados permanecem no dispositivo de origem (como celular ou notebook), e apenas representações estatísticas são compartilhadas.
- Criptografia homomórfica, que permite processar dados já criptografados.
De acordo com os especialistas consultados, essas tecnologias reduzem de forma relevante as chances de reidentificação, mau uso ou exposição indevida de dados. Porém, seu potencial ainda é pouco explorado no Brasil.
“A LGPD, principal lei brasileira sobre o tema, foi aprovada pelo Congresso em 2018, e muita coisa mudou na tecnologia desde então”, afirma Daniela Naomi Nomura, pesquisadora do Reglab e autora do estudo. “Por isso, é importante rediscutir a proteção de dados no país sob uma nova ótica, considerando também as ferramentas que surgiram nos últimos anos.
Para Marina Garrote, coordenadora de pesquisa do Reglab, o avanço em segurança da informação depende de mais do que a aplicação de novas tecnologias. “O que concluímos é que a implementação efetiva de PETs deve integrar uma perspectiva mais ampla de governança de dados, que inclui capacitação contínua, conscientização e letramento em privacidade. Sem esses outros elementos, mesmo as soluções mais sofisticadas podem continuar vulneráveis.”
O estudo também reforça a relevância do tema em meio às discussões sobre regulação da IA no Brasil, tanto em nível federal quanto estadual. “Não dá para discutirmos novas leis e a aplicação de leis existentes sem considerar os avanços também no campo de tecnologias de privacidade”, diz Pedro Henrique Ramos, diretor-executivo do Reglab. “E precisamos cada vez mais de pontes entre a esfera técnica e jurídica.”







One thought on “Estudo aponta baixa adoção de tecnologias de privacidade em sistemas de IA no Brasil”
Comments are closed.