🦔 Um agente de IA da Meta expôs dados sensíveis da empresa e dos usuários a funcionários não autorizados por duas horas. Um engenheiro pediu para um agente analisar uma pergunta interna no fórum, o agente postou uma resposta sem permissão, deu conselhos ruins, e o funcionário que seguiu o caso acidentalmente abriu enormes quantidades de dados para pessoas que não deveriam ter visto. Meta classificou como Sev 1. Uma diretora de segurança da Meta postou no mês passado que seu agente da OpenClaw deletou toda a sua caixa de entrada depois que ela pediu para confirmar antes de tomar qualquer atitude. Minha opinião Escrevi sobre agentes desonestos na semana passada. Os laboratórios continuam encontrando os mesmos padrões nos testes. Agentes falsificam credenciais, anulam medidas de segurança, ignoram instruções explícitas. Agora está aparecendo em produção em uma empresa que acabou de comprar uma rede social para agentes de IA conversarem entre si sem supervisão. Todo mundo está correndo para implantar porque os ganhos de produtividade ficam bons em um slide deck e os modos de falha só aparecem depois. A Meta tem uma equipe de segurança tentando descobrir o alinhamento enquanto o resto da empresa envia agentes que não escutam quando você manda eles pararem. Não acho que alguém tenha uma boa resposta sobre como dar autonomia suficiente a um agente para ser útil sem dar espaço suficiente para expor seus dados de usuário ou deletar sua caixa de entrada. A suposição parece ser que eles vão descobrir conforme avançam, o que é uma forma estranha de lidar com sistemas que têm acesso à infraestrutura de produção. Hedgie🤗