A Inteligência Artificial vive um ponto de inflexão. Enquanto grande parte do debate público ainda associa IA a chatbots e modelos de linguagem, uma transformação silenciosa está em curso: a migração da IA das telas para o mundo físico. Robôs humanoides, veículos autônomos, eletrodomésticos conectados e sistemas industriais inteligentes já compõem um mercado estimado em US$ 4,44 bilhões em 2025, com projeção de chegar a US$ 23,06 bilhões até 2030, crescendo a uma taxa anual de 39%, segundo relatório da MarketsandMarkets (2025). Essa nova fase, chamada de IA física, está no radar de gigantes como Nvidia e Qualcomm e exigirá algo que ainda está em estágio inicial: sistemas capazes de perceber o mundo com múltiplos sentidos.
A visão computacional é hoje o exemplo mais avançado dessa evolução. Em linhas de produção da Siemens, algoritmos conseguem identificar defeitos industriais com 99,8% de precisão, enquanto drones da John Deere utilizam visão computacional para selecionar frutas maduras no campo. Mesmo assim, as falhas revelam o tamanho do desafio. Sistemas autônomos ainda têm dificuldades em ambientes complexos ou imprevisíveis, prova de que perceber o mundo físico foge da alçada de sensores, pois, exige interpretação sensorial sofisticada.
Outros sentidos começam a ganhar protagonismo tecnológico. No setor alimentício, as chamadas “línguas eletrônicas” transformam sabores em dados mensuráveis. A startup suíça Aryballe desenvolveu sensores capazes de analisar perfis olfativos de vinhos com precisão comparável à de sommeliers humanos, enquanto a IBM Research criou sensores gustativos que detectam adulteração em azeite de oliva com 98% de acurácia, ajudando a combater um mercado de fraudes estimado em US$ 12 bilhões por ano globalmente. Não por acaso, o mercado de sensores químicos aplicados à IA sensorial pode atingir US$ 132 bilhões até 2032, segundo o relatório Electronic Nose Market (2024).
Mas existe um paradoxo estratégico pouco discutido. Para ensinar máquinas a perceber o mundo com mais precisão, talvez devamos olhar para quem já desenvolveu formas alternativas de percepção: as pessoas com deficiência. Globalmente, 1,3 bilhão de pessoas vivem com algum tipo de deficiência, o equivalente a 15% a 20% da população mundial, representando um poder de consumo estimado em US$ 13 trilhões anuais quando incluímos familiares e cuidadores, segundo o Fórum Econômico Mundial (2023). Ao projetar tecnologias para ambientes acessíveis, com melhor contraste visual, acústica adequada ou interfaces táteis, empresas criam sistemas mais robustos, capazes de operar em condições perceptivas extremas.
Por isso, acessibilidade deve ser encarada como estratégia de inovação. Quando projetamos tecnologias para quem enxerga, ouve ou percebe o mundo de forma diferente, submetemos sistemas de IA a testes reais de sensorialidade e interpretação. Se a próxima geração da inteligência artificial será capaz de sentir o mundo, ela precisará aprender primeiro com quem já precisou reinventar os próprios sentidos para navegar por ele.
– Thierry Cintra Marcondes é especialista em inovação, impacto e acessibilidade






