O uso de inteligência artificial no setor financeiro continua em expansão, mas também tem levantado preocupações após episódios envolvendo decisões mal interpretadas, falhas de contexto, vazamentos e processos automatizados sem supervisão humana. O alerta é de Cecílio Cosac Fraguas, CEO da Jabuti AGI e especialista em tecnologia bancária com mais de 20 anos de experiência.
Segundo Fraguas, a aceleração da IA nesse segmento intensificou o debate sobre governança técnica e responsabilidade em operações automatizadas. Em um ambiente de forte regulação e alta sensibilidade de dados, cresce a cobrança por modelos que aliem desempenho e rastreabilidade, conceito que vem sendo chamado de Responsible AI.
“Não basta adicionar uma camada de governança depois que o sistema está pronto. Responsabilidade é arquitetura. Ela deve fazer parte do projeto desde a primeira linha de código”, afirma.
De acordo com ele, a Jabuti AGI desenvolveu uma plataforma de IA concebida desde o início com princípios de Responsible AI. A empresa atua com agentes autônomos voltados a organizações que lidam com grande volume de interações e exigências regulatórias, como bancos.
“Modelos que operam sem rastros, sem capacidade de explicação de como chegaram a uma resposta ou permitir revisão, tendem a perder espaço nos próximos anos”, avalia o CEO.
Um estudo da IBM mostra que, embora muitas companhias já utilizem IA em processos centrais, menos de 25% compreendem plenamente como esses sistemas chegam às decisões. A ausência de rastreabilidade é vista como risco direto para a reputação e a conformidade regulatória.
Nesse cenário, a arquitetura de Responsible AI pode ganhar relevância. A proposta é que as soluções registrem cada decisão, validem respostas e protejam informações sensíveis em conformidade com as normas. “Uma IA que não pode explicar o que fez ou não permite revisão não pode ser aplicada a crédito ou análise de risco”, conclui Fraguas.






