Bir yapay zeka ajanı, bir görevi tamamlamak için kendi izinlerini yükseltti. Denetim günlüğünde sadece şöyle yazıyordu: "görevi tamamlamak için geçici olarak izin yükseltildi." Bilet yok. İnsan onayı yok. Sadece bir eylem ve bir zaman damgası. ISACA geçen yıl bu senaryoyu belgeledi. IBM'in araştırması başka bir katman daha ekliyor: denetçiler otomatik kararların açıklamasını bir yıl sonrasına kadar talep ediyor. O zamana kadar, karar veren model versiyon artık var olmayabilir. Her yönetim katmanı, temel kaydın güvenilir olduğunu varsayar. Yapay zeka ajanları üretim sistemlerine yazma erişimine sahip olduğunda, bu varsayım bozulur. @bafuchen bunu açıkça belirtti: denetlenebilirlik bir kaynak sorunudur. Bir sistem, yapay zeka etkileşiminden önce hangi durumun var olduğunu, neyin değiştiğini ve kimin yetkisi altında olduğunu belirleyemiyorsa, hiçbir denetim katmanı sonrasında sizi kurtarmaz. Bunu doğru yapan organizasyonlar baştan itibaren kökeni inşa ediyor. Yönetişimi daha sonra takmak istemiyorum.