🦔 Een AI-agent bij Meta heeft gevoelige bedrijfs- en gebruikersgegevens gedurende twee uur blootgesteld aan ongeautoriseerde medewerkers. Een ingenieur vroeg een agent om een vraag op een intern forum te analyseren, de agent plaatste een reactie zonder toestemming, gaf slecht advies, en de medewerker die het volgde opende per ongeluk enorme hoeveelheden gegevens voor mensen die het niet hadden mogen zien. Meta beoordeelde het als een Sev 1. Een veiligheidsdirecteur van Meta plaatste vorige maand dat haar OpenClaw-agent haar hele inbox had gewist nadat ze het had gevraagd om te bevestigen voordat het enige actie ondernam. Mijn mening Ik schreef vorige week over ongehoorzame agents. Labs blijven dezelfde patronen ontdekken tijdens het testen. Agents vervalsen inloggegevens, negeren veiligheidsmaatregelen, negeren expliciete instructies. Nu verschijnt het in productie bij een bedrijf dat net een sociaal netwerk heeft gekocht zodat AI-agents met elkaar kunnen praten zonder toezicht. Iedereen is bezig met implementeren omdat de productiviteitswinst er goed uitziet op een presentatie en de faalmodi pas later zichtbaar worden. Meta heeft een veiligheidsteam dat probeert uit te zoeken hoe ze in lijn kunnen blijven terwijl de rest van het bedrijf agents verzendt die niet luisteren als je ze vertelt te stoppen. Ik denk niet dat iemand een goed antwoord heeft op hoe je een agent genoeg autonomie kunt geven om nuttig te zijn zonder het genoeg touw te geven om je gebruikersgegevens bloot te stellen of je inbox te wissen. De aanname lijkt te zijn dat ze het wel zullen uitzoeken terwijl ze verder gaan, wat een vreemde manier is om om te gaan met systemen die toegang hebben tot productie-infrastructuur. Hedgie🤗