كيق يقرأ خبيرٌ الضوابط الأميركية على الذكاء الاصطناعي؟
ذكر موقع “سكاي نيوز”، أنّ واشنطن نجحت في الحصول على “التزامات طوعية” من 7 من كبار شركات التكنولوجيا، بضوابط وضعها البيت الأبيض لضمان أمان منتجات الذكاء الاصطناعي التي تقدمها، قبل إطلاقها للمستخدمين.
هذه الالتزامات خطوة في طريق ضبط عمل برامج الذكاء الاصطناعي؛ لتحقيق التوازن بين الاستفادة من مزاياها وخدماتها الفائقة، وبين درء مخاطرها الفائقة أيضا، والتي وُصفت بأنها “تهدد الحضارة البشرية وأمن الإنسان إن لم يُكبح جماحها”.
وتقتضي بعض الالتزامات إشراف طرف ثالث على طريقة عمل أنظمة الذكاء الاصطناعي التجارية، دون توضيحات حول من سيقوم بمراجعة التكنولوجيا أو محاسبة الشركات.
وتضم قائمة الشركات التي أعلنت التزاماتها الطوعية: “أمازون” و”غوغل” و”ميتا” و”مايكروسوفت” و “أوبن إيه آي” مطورة تطبيق “تشات جي بي تي”، وشركتي “أنثروبيك” و”إنفليكشن إيه آي” الناشئتين.
وبحسب بيان البيت الأبيض، فإن الشركات التزمت بإجراء اختبارات أمنية، يقوم بها جزئيا خبراء مستقلون، للحماية من المخاطر الرئيسية مثل الأمن البيولوجي والأمن السيبراني، واستخدام العلامات المائية الرقمية للمساعدة في التمييز بين الصور الحقيقية، وتلك التي يتم إنشاؤها بالذكاء الاصطناعي.
وتهدف الالتزامات الطوعية إلى “تسهيل معالجة المخاطر إلى حين حمل الكونغرس على إصدار قوانين تنظم عمل التكنولوجيا”.
ويقول خبير التحول الرقمي وأمن المعلومات زياد عبد التواب،”إنها خطوة استباقية وسريعة، أسرع بكثير من التشريعات المنظمة التي لن تكون كافية بنسخها أو مسوداتها الأولى لضبط أداء منظومات الذكاء الاصطناعي، وستحتاج إلى مزيد من التعديلات في المستقبل”.
ويرى أنّ “التطوّر المهم يتمثل في أن الرقابة ستكون على الأنظمة قبل إطلاقها، وأيضا متابعة عملها بعد الإطلاق؛ لأن الاختبارات القبلية قد لا تظهر كل المخاطر التي قد تطرأ من هذه الأنظمة خلال استخدامها على يد المستخدمين”.
ويضيف: “هذه الالتزامات تلزم شركات تطوير منظومة الذكاء الاصطناعي بأن تخضع لمجموعة اختبارات داخلية؛ بمعنى اختبار للخوارزميات، وأسلوب عمل هذه التطبيقات، وأيضا اختبار من وجهة نظر المستخدمين للتأكد من سلامتها والتزامها بالمعايير المطلوبة لتكون في الحدود الآمنة”.
ويقول: “رغم أن البيت الأبيض لم يوضح من سيقوم بمراقبة هذه الأنظمة، لكن متوقع أن يتم إنشاء وحدة يرأسها هو وخبراء بمجال التكنولوجيا لتقوم بالمهمة حاليا، حتى يتم بلورة الأمر، ومتوقع أيضا إنشاء هيئة خاصة لهذا الأمر مستقبلا”. (سكاي نيوز)