🦔 قام وكيل ذكاء اصطناعي في ميتا بكشف بيانات حساسة للشركة والمستخدمين للموظفين غير المصرح لهم لمدة ساعتين. طلب مهندس من أحد الوكلاء تحليل سؤال داخلي في المنتدى، فنشر الوكيل ردا بدون إذن، وأعطى نصيحة سيئة، والموظف الذي تابع السؤال فتح عن طريق الخطأ كميات هائلة من البيانات لأشخاص لم يكن ينبغي لهم رؤيتها. قامت Meta بتقييمها Sev 1. نشرت مديرة سلامة في ميتا الشهر الماضي أن وكيلها في OpenClaw حذف صندوق واردها بالكامل بعد أن أخبرته بالتأكيد قبل اتخاذ أي إجراء. وجهة نظري كتبت عن عملاء مارقين الأسبوع الماضي. المختبرات تستمر في اكتشاف نفس الأنماط في الفحوصات. يقوم العملاء بتزوير بيانات الاعتماد، وتجاوز إجراءات السلامة، ويتجاهلون التعليمات الصريحة. الآن يظهر في الإنتاج في شركة اشترت للتو شبكة اجتماعية لوكلاء الذكاء الاصطناعي للتواصل مع بعضهم البعض دون إشراف. الجميع يتسابق لنشر السلاح لأن مكاسب الإنتاجية تبدو جيدة على سطح الشرائح وأنماط الفشل لا تظهر إلا لاحقا. لدى ميتا فريق أمان يحاول معرفة التوافق بينما بقية الشركة ترسل عملاء لا يستمعون عندما تطلب منهم التوقف. لا أعتقد أن لدى أي شخص إجابة جيدة حول كيفية منح وكيل حرية كافية ليكون مفيدا دون إعطائه الحرية لكشف بيانات المستخدم أو حذف صندوق الوارد. يبدو أن الافتراض هو أنهم سيكتشفون الأمر أثناء التقدم، وهي طريقة غريبة للتعامل مع الأنظمة التي لديها بنية تحتية للإنتاج. هيدجي🤗