Entrevista

Gafes de chatbots ligam alerta sobre uso corporativo da IA

Casos recentes, como o do Grok, chatbot da xAI, mostram que mesmo sistemas avançados podem gerar respostas inadequadas

Tempo de leitura: 6 minutos


Recentes respostas totalmente repugnantes geradas pelo Grok, chatbot desenvolvido pela xAI, reacenderam o debate sobre os riscos de usar inteligência artificial generativa em interações com o público. O bot protagonizou um episódio no qual respondeu aos usuários do X, antigo Twitter, com falas violentas e declarações de ódio antissemitas. O fato acendeu um alerta no setor de tecnologia como um todo.

Em entrevista ao IA Brasil Notícias, Gaurav Kachhawa, diretor de produto da Gupshup, avalia que as desenvolvedoras de chatbots precisam atuar com orientação estratégica sobre como implementar IA de forma ética, segura e eficaz. “Muitas empresas já reconhecem o potencial da IA generativa, mas poucas estão totalmente preparadas para lidar com seus desafios éticos e técnicos“, afirmou.


Que tipo de filtros ou políticas uma empresa deve implementar antes de colocar um bot com IA generativa em produção?

Antes de lançar um bot de IA generativa, é essencial estabelecer um conjunto de diretrizes claras que garantam segurança, precisão e responsabilidade. Isso envolve definir o escopo de atuação do bot, ou seja, quais tipos de perguntas ele pode responder e quais temas deve evitar e restringir as fontes de dados que ele pode utilizar para gerar respostas.

Outro ponto crucial é o cumprimento de normas regulatórias como a LGPD, GDPR e a ISO 27001, especialmente em setores que lidam com dados sensíveis. Além disso, é importante planejar como será feita a monitoração contínua do bot, definir políticas de fallback (ou seja, quando o bot deve transferir a conversa para um humano) e estabelecer métricas de sucesso claras, como níveis de satisfação do usuário, taxa de resolução e tempo médio de atendimento. Esses “guardrails”, como chamamos, são fundamentais para garantir que a IA opere dentro dos parâmetros definidos pela empresa e com responsabilidade.

Quais mecanismos técnicos podem ser adotados para evitar que um chatbot produza respostas tóxicas, incorretas ou ofensivas?

Do ponto de vista técnico, há várias camadas de proteção que podem ser implementadas. Um dos primeiros passos é treinar modelos específicos por domínio, ou seja, em vez de usar uma IA genérica, a empresa pode usar um modelo ajustado com dados do seu próprio setor, como é o caso do ACE LLM da Gupshup. Isso reduz significativamente as chances de alucinações ou respostas fora de contexto.

Além disso, utilizamos técnicas de engenharia de prompts para moldar o comportamento do bot, bem como filtros de linguagem ofensiva e sistemas automáticos de moderação que bloqueiam ou redirecionam interações inadequadas.

Outro recurso fundamental é a monitoração humana contínua, com equipes de QA revisando conversas e ajustando o comportamento da IA com base em feedbacks. E, claro, sempre recomendamos mecanismos de fallback bem definidos, se a IA tiver dúvida sobre uma resposta, ela deve transferir a conversa para um agente humano.

A Gupshup tem ajudado empresas a usarem IA no WhatsApp e outros mensageiros. Quais são os usos mais comuns e os mais bem-sucedidos hoje?

Sim, os casos de uso mais comuns, e bem-sucedidos que temos visto são atendimento automatizado ao cliente, marketing conversacional e geração de leads. No WhatsApp, por exemplo, temos clientes que utilizam bots de IA para guiar os usuários desde o primeiro contato até a finalização de uma compra, com personalização em tempo real e integração com sistemas internos.

Também vemos muito sucesso em campanhas de click-to-WhatsApp, nas quais a IA conversa com o cliente após ele clicar em um anúncio, marcas como NoBroker e Reserva tiveram aumentos significativos de engajamento e conversão com essa abordagem. Outro exemplo prático é o concierge digital no setor de turismo e hotelaria, como o agente de IA que implementamos para clientes hoteleiros da Gupshup, que oferece suporte no pré-check-in, durante a estadia e até no pós-venda, tudo via WhatsApp.

Dá para usar IA generativa nesses canais com segurança? Que práticas vocês recomendam para isso?

Sim, é possível usar IA generativa com segurança nesses canais, desde que as boas práticas sejam rigorosamente seguidas. O primeiro passo é justamente limitar o escopo do bot e garantir que ele interaja apenas com base em dados seguros e aprovados pela empresa. A Gupshup, por exemplo, utiliza guardrails técnicos e modelos proprietários treinados com dados específicos de cada cliente.

Também sempre recomendamos oferecer a opção de escalar para um humano quando necessário e deixar claro para o usuário que ele está interagindo com uma IA. Monitoramento constante, análise de logs e coleta de feedbacks são essenciais para manter a qualidade e evitar riscos reputacionais. Outro ponto importante é que as integrações com sistemas internos devem ser feitas com protocolos de segurança robustos, como autenticação em dois fatores e criptografia de ponta a ponta.

Você pode citar algum exemplo de marca que conseguiu escalar o atendimento com IA sem comprometer a experiência do usuário?

Claro. Um bom exemplo é o Tonik Bank, uma fintech digital nas Filipinas que usou a tecnologia da Gupshup para implementar um chatbot de IA generativa. Em pouco tempo, o bot automatizou cerca de 75% das solicitações de atendimento, mantendo uma precisão de respostas em torno de 95%. Isso permitiu uma escalabilidade significativa no suporte ao cliente sem perder qualidade na experiência. Além disso, clientes como a Reserva, no Brasil, e a NoBroker, na Índia, também relataram aumentos expressivos em ROI e engajamento usando bots conversacionais integrados ao WhatsApp e outros canais, sempre mantendo uma comunicação personalizada e responsiva.

Foto: Freepik

Acredita que as empresas estão preparadas para lidar com os desafios éticos e técnicos da IA generativa? O que ainda falta?

Ainda estamos em uma fase de transição. Muitas empresas já reconhecem o potencial da IA generativa, mas poucas estão totalmente preparadas para lidar com seus desafios éticos e técnicos. Falta estrutura de governança dedicada, políticas internas claras para o uso de IA e, principalmente, capacitação das equipes envolvidas. Além disso, vemos uma lacuna significativa na compreensão de riscos como viés algorítmico, privacidade e rastreabilidade de decisões automatizadas.

O que ainda falta, no fim das contas, é um alinhamento mais profundo entre tecnologia, compliance e cultura organizacional. A IA precisa ser tratada não apenas como uma ferramenta, mas como um elemento estratégico com implicações reais para reputação, segurança e confiança do usuário.

Qual deve ser o papel das plataformas, como a Gupshup, na promoção de boas práticas no uso da IA?

As plataformas têm um papel fundamental porque estão na base da infraestrutura conversacional que as empresas utilizam. Na Gupshup, por exemplo, levamos essa responsabilidade a sério, oferecendo não apenas tecnologia, mas também orientação estratégica sobre como implementar IA de forma ética, segura e eficaz. Isso envolve disponibilizar ferramentas com mecanismos de segurança embutidos, como moderação, fallback e rastreabilidade.

Também promovemos documentação detalhada, estudos de caso, benchmarks e suporte especializado para que nossos clientes possam tomar as melhores decisões. Além disso, acreditamos em uma abordagem colaborativa: ouvimos constantemente nossos parceiros e atualizamos nossas soluções com base em necessidades práticas e desafios reais. Nossa missão é tornar a IA generativa acessível, controlável e confiável para empresas de todos os tamanhos e setores.

Tópicos desta reportagem:


Receba em seu email um resumo semanal e GRATUITO com notícias exclusivas e reportagens sobre o mercado de IA no Brasil e no mundo

Subscription Form (#4)