Inovação

OpenAI lança agente de IA que poderá fazer compras e outras tarefas cotidianas, como se fosse um humano

Ferramenta ainda está restrita aos usuários assinantes Pro nos EUA, mas pode chegar aos demais países em breve

Tempo de leitura: 2 minutos


A OpenAI acaba de fazer mais um movimento para assumir a dianteira no mercado global de inteligência artificial (IA). A empresa anunciou nesta quinta-feira (23) o lançamento do Operator, um agente autônomo que é capaz de interagir com os botões, menus e campos de texto que as pessoas veem na tela do computador. A tecnologia é capaz de interagir com o computador como se fosse um humano. A ferramenta ainda não está disponível no Brasil.

Segundo a OpenAI, a tecnologia é capaz de fazer o trabalho de forma independente – ou seja, ela executa uma determinada tarefa definida pelo usuário. A companhia diz que o Operator é treinado para controlar um computador da mesma forma que um humano faria – ele “olha” para a tela e usa um mouse e teclado.

Na prática, o Operator poderá realizar uma ampla variedade de tarefas cotidianas usando um navegador da internet. O agente é capaz de fazer compras de supermercado, realizar reservas ou comprar ingressos para eventos. Tudo isso sob a direção e supervisão do usuário.

“Isso representa um passo importante rumo a um futuro onde o ChatGPT não apenas é capaz de responder perguntas, mas também pode realizar ações em nome do usuário”, disse a OpenAI.

Inicialmente, o Operator estará disponível para usuários assinantes Pro nos Estados Unidos no endereço operator.chatgpt.com. Eventualmente, isso fará parte do ChatGPT e estará disponível de forma mais ampla.

Preocupações e riscos

A OpenAI declarou que embora o Operator tenha o potencial de ampliar o acesso à tecnologia, suas capacidades introduzem vetores de risco adicionais. As preocupações giram em torno de vulnerabilidades, como ataques de injeção de prompt, onde instruções maliciosas em sites de terceiros podem desviar o modelo das ações pretendidas pelo usuário.

Também existe a possibilidade do modelo cometer erros difíceis de reverter ou ser usado para executar tarefas prejudiciais ou não permitidas a pedido do usuário.

Para lidar com esses riscos, a OpenAI afirmou que existe uma abordagem de segurança em múltiplas camadas, incluindo recusa proativa de tarefas de alto risco, prompts de confirmação antes de ações críticas e sistemas de monitoramento ativo para detectar e mitigar potenciais ameaças.

Receba em seu email um resumo semanal com notícias exclusivas e reportagens sobre o mercado de IA no Brasil e no mundo