Forbes, a mais conceituada revista de negócios e economia do mundo.
Recentemente, a OpenClaw ganhou visibilidade entre entusiastas de IA devido ao sucesso do Moltbook, rede social criada para agentes de IA interagirem entre si — premissa que logo foi desmentida pelo MIT. Isso por que a rede utilizava o OpenClaw para configurar agentes de IA e em seguida autorizá-los a participar de interações nas redes de forma autônoma.
A ferramenta voltou aos holofotes quando Summer Yue, diretora de alinhamento de superinteligência e pesquisadora da Meta, relatou que seus e-mails estavam sendo apagados pela IA sem o consentimento dela. Em um post no X, a executiva informou que, mesmo após enviar comandos diretos pedindo para o OpenClaw parar, o bot continuou apagando os e-mails descontroladamente.
“Não tem nada mais humilhante que dizer ao seu OpenClaw ‘confirme antes de agir’ e vê-lo deletar sua caixa de entrada em alta velocidade. Eu não consegui impedir pelo meu celular. Tive que correr para o meu Mac mini como se estivesse desarmando uma bomba”, escreveu a executiva.
O “bug” no OpenClaw aconteceu devido a uma tentativa de programar o bot para organizar a caixa de entrada de e-mails. Segundo Summer, ao ser submetido a um teste em uma caixa de entrada provisória, a ferramenta agiu conforme o esperado, porém ao levar a automatização para sua caixa de entrada real, o bot começou a apagar e-mails recentes, recebidos a cerca de uma semana.
O que é o OpenClaw e por que ele preocupa especialistas?
O OpenClaw foi desenvolvido por Peter Steinberger, programador recentemente contratado pela OpenAI, e funciona como um agente pessoal integrado a aplicativos de mensagem como WhatsApp, Telegram e iMessage. O bot é capaz de executar tarefas como enviar e-mails, depurar códigos e fazer ligações.
A ferramenta, que viralizou entre desenvolvedores de IA, é distribuída gratuitamente e qualquer pessoa pode modificá-la. Recentemente, Sam Altman, da OpenAI, publicou que deve continuar apoiando o OpenClaw como um projeto de código aberto.
Embora tenha sido treinado para agir sob comandos humanos, a infraestrutura do bot não exige aprovação humana para que ações sejam executadas. Essa característica tem despertado preocupação em especialistas, que temem os riscos que podem ser gerados por tamanha autonomia.
O reflexo dessa insegurança já tem sido percebido em diferentes empresas de tecnologia, que começaram a banir o OpenClaw em dispositivos de uso corporativo. A própria Meta proibiu o uso do bot na semana passada, com risco de demissão para quem descumprir a regra. Isso porque o acesso do bot à arquivos e dados do dispositivo abre brechas para que terceiros obtenham acesso remoto a informações armazenadas. O OpenClaw recebeu inúmeras denúncias sobre falhas de segurança e malwares de roubo de dados.
Riscos apontados
O diferencial do OpenClaw em relação a outros assistentes de IA, além da autonomia, é a sua habilidade de tomar decisões com base em memória. Na prática, o usuário define tarefas e o bot organiza, executa e ajusta comportamentos por conta própria, com base em resultados anteriores. Para tal, a ferramenta acessa informações como históricos de navegação, contas em aplicativos, chaves API e tokens, explorando sessões ativas como se fosse o próprio usuário.
A lista de riscos possíveis segue aumentando, ao passo que novos problemas são identificados por usuários. Entre eles estão a exposição de painéis de administração de contas na internet — gerado por um controle mal aplicado — e brechas para malwares e acessos remotos não autorizados, dando à possíveis cibecriminosos informações valiosas de forma fácil.
Em comunicado oficial, a Microsoft alerta para os riscos do uso da ferramenta: “O OpenClaw deve ser tratado como um código de execução não confiável com credenciais persistentes. Não é apropriado executá-lo em uma estação de trabalho pessoal ou corporativa padrão. Se uma organização determinar que o OpenClaw deve ser avaliado, ele deve ser implantado apenas em um ambiente totalmente isolado, como uma máquina virtual dedicada ou um sistema físico separado. O ambiente de execução deve usar credenciais dedicadas e sem privilégios, e acessar apenas dados não sensíveis. O monitoramento contínuo e um plano de reconstrução devem fazer parte do modelo operacional.
O post Entenda a OpenClaw, Plataforma de IA Que Está Tirando o Sono do Vale do Silício apareceu primeiro em Forbes Brasil.