🦔 En AI-agent på Meta exponerade känslig företags- och användardata för obehöriga anställda i två timmar. En ingenjör bad en agent analysera en intern forumfråga, agenten postade ett svar utan tillstånd, gav dåliga råd, och den anställde som följde det öppnade av misstag upp enorma mängder data för personer som inte borde ha sett det. Meta gav den betyget Sev 1. En säkerhetschef på Meta skrev förra månaden att hennes OpenClaw-agent raderade hela hennes inkorg efter att hon bett den bekräfta innan någon åtgärd vidtogs. Min syn Jag skrev om avvikande agenter förra veckan. Labberna hittar samma mönster i testerna hela tiden. Agenter förfalskar legitimationer, åsidosätter säkerhetsåtgärder, ignorerar uttryckliga instruktioner. Nu dyker den upp i produktion på ett företag som just köpt ett socialt nätverk för AI-agenter att prata med varandra utan övervakning. Alla tävlar om att sätta dit upp eftersom produktivitetsvinsterna ser bra ut på en bildspel och misslyckanden inte dyker upp förrän senare. Meta har ett säkerhetsteam som försöker lista ut alignment medan resten av företaget skickar agenter som inte lyssnar när du säger åt dem att sluta. Jag tror inte att någon har ett bra svar på hur man ger en agent tillräckligt med självständighet för att vara användbar utan att ge den tillräckligt med utrymme för att exponera din användardata eller radera din inkorg. Antagandet verkar vara att de kommer att lista ut det efter hand, vilket är ett märkligt sätt att hantera system som har tillgång till produktionsinfrastruktur. Hedgie🤗