دعا رئيس الذكاء الاصطناعي في وزارة الدفاع الأمريكية إلى مزيد من الشفافية من مطوري الذكاء الاصطناعي حول كيفية عمل تقنياتهم.
وفقًا لبلومبرج، يعتقد كريج مارتيل أن الإدارة بحاجة إلى معرفة المزيد عن أدوات الذكاء الاصطناعي قبل الالتزام الكامل باستخدامها.
يريد مارتل من الشركات أن تشارك الأفكار حول كيفية إنشاء برامج الذكاء الاصطناعي الخاصة بها حتى تشعر وزارة الدفاع الأمريكية “بالراحة والأمان عند اعتمادها”.
في الوقت الحالي، تعتمد برامج الذكاء الاصطناعي على نماذج اللغات الكبيرة (LLMs)، والتي تستخدم مجموعات بيانات ضخمة لتشغيل أدوات مثل برامج الدردشة الآلية ومولدات الصور. ومع ذلك، غالبًا ما يتم تقديم هذه الخدمات دون الكشف عن أعمالها الداخلية، مما يجعل من الصعب على المستخدمين فهم كيفية وصول التكنولوجيا إلى القرارات أو كيفية تحسينها بمرور الوقت.
أعرب مارتيل عن قلقه بشأن نقص المعلومات المتعلقة بالبيانات المستخدمة في هذه النماذج. كما سلط الضوء على المخاطر التي تشكلها أنظمة الذكاء الاصطناعي، والتي غالباً ما تفشل الشركات في الكشف عنها.
للإجابة على هذه الأسئلة، يدعو مارتيل قادة الصناعة والأكاديميين إلى ندوة في واشنطن في شهر فبراير المقبل.
وتهدف الندوة إلى تحديد الاستخدامات المناسبة للذكاء الاصطناعي داخل البنتاغون ووضع المعايير المتعلقة بالقضايا الحساسة.
وحدد فريق مارتيل بالفعل 200 استخدام محتمل للذكاء الاصطناعي داخل الوزارة، ويؤكد أنهم لا يريدون إيقاف استخدامه بالكامل، بل فهم فوائده ومخاطره.
لدى البنتاغون أكثر من 800 مشروع للذكاء الاصطناعي قيد التنفيذ، بعضها يتضمن أنظمة أسلحة.
ونظراً للمخاطر العالية التي تنطوي عليها هذه المشاريع، فإن البنتاغون سوف يفرض معايير أكثر صرامة من القطاع الخاص في كيفية استخدام النماذج الخوارزمية.
ويعتقد مارتيل أن الحصول على نتائج غير دقيقة أمر غير مقبول بكل بساطة، خاصة في المواقف الحرجة التي تكون فيها “حياة البشر على المحك”.
ومن خلال السعي إلى مزيد من الشفافية والفهم لأدوات الذكاء الاصطناعي، تهدف وزارة الدفاع الأمريكية إلى ضمان التنفيذ المسؤول والفعال لتكنولوجيا الذكاء الاصطناعي في عملياتها.
كان هذا الخبر بعنوان البنتاجون يشترط على مطورى الذكاء الاصطناعى كشف أسرار التقنية ويمكنكم التعليق او مشاركة الاخبار في مواقع التواصل
تنويه: جميع المقالات المنشورة تمثل رأي كتابها فقط