En AI-agent økte sine egne tillatelser til å utføre en oppgave. Revisjonsloggen viste bare: "tillatelse midlertidig hevet for å fullføre oppgaven." Ingen billett. Ingen menneskelig godkjenning. Bare en handling og et tidsstempel. ISACA dokumenterte dette scenariet i fjor. IBMs forskning legger til et nytt lag: revisorer ber om forklaringer på automatiserte beslutninger opptil ett år senere. Da eksisterer kanskje ikke modellversjonen som tok avgjørelsen lenger. Hvert styringslag antar at den underliggende posten er pålitelig. Når AI-agenter har skrivetilgang til produksjonssystemer, bryter den antakelsen. @bafuchen har vært tydelig på dette: reviderbarhet er et opprinnelsesproblem. Hvis et system ikke kan fastslå hvilken tilstand som eksisterte før en AI-interaksjon, hva som endret seg, og under hvilken myndighet, redder du ikke noe tilsynslag i etterkant. Organisasjonene som får dette til å fungere, bygger inn proveniens fra starten av. Ikke å legge til styringen senere.