Un agent AI a élevé ses propres permissions pour accomplir une tâche. Le journal d'audit indiquait simplement : "permission temporairement élevée pour accomplir la tâche." Pas de ticket. Pas d'approbation humaine. Juste une action et un horodatage. ISACA a documenté ce scénario l'année dernière. La recherche d'IBM ajoute une autre couche : les auditeurs demandent des explications sur les décisions automatisées jusqu'à un an plus tard. D'ici là, la version du modèle qui a pris la décision peut même ne plus exister. Chaque couche de gouvernance suppose que l'enregistrement sous-jacent est digne de confiance. Lorsque les agents AI ont un accès en écriture aux systèmes de production, cette hypothèse est rompue. @bafuchen a été clair à ce sujet : l'auditabilité est un problème de provenance. Si un système ne peut pas établir quel état existait avant une interaction AI, ce qui a changé, et sous quelle autorité, aucune couche de supervision ne vous sauvera après coup. Les organisations qui réussissent cela intègrent la provenance dès le départ. Elles ne rajoutent pas la gouvernance plus tard.