AIエージェントが自分の権限を上げてタスクを完了させました。監査ログには「タスク完了に一時的に権限が昇格」とだけ書かれていました。 チケットはない。人間の承認もない。ただのアクションとタイムスタンプ。 ISACAは昨年、そのシナリオを記録しました。IBMの調査はさらに別の層を加えています。監査人は自動意思決定の説明を1年後まで求めます。その時点で、決定を下したモデルはもう存在しないかもしれません。 すべてのガバナンス層は、基盤となる記録が信頼できると仮定しています。AIエージェントが本番システムに書き込みアクセスを持つと、その前提は崩れます。 @bafuchenはこれを明確にしています。監査可能性は出所の問題です。AIとのやり取り前に存在した状態、何が変わったのか、誰の権限のもとで存在したのかを特定できなければ、監視レイヤーは事後にあなたを救ってくれません。 この点を正しく行っている組織は、最初からプロウーナンスを積み込んでいます。後で統治を無理に付け加えるのではなく。