حوكمة الذكاء الاصطناعي

ربما سمعت بمصطلح حوكمة الذكاء الإصطناعي أو وجدت استخدام مصطلح AI Governance في منشور اخباري أو على لينكدإن أو غيره من المنصات وتود أن تعرف عنه أكثر.

يتزايد الحديث عن المصطلح في ظل عجز القوانين الحالية والأنظمة عن تنظيم هذا الإبتكار الذي يعد الأنجح حاليا مقارنة مع الميتافيرس ومنتجاته وبقية الإختراعات مثل NFT التي انفجرت فقاعتها.

تعريف حوكمة الذكاء الإصطناعي

حوكمة الذكاء الاصطناعي هي إطار عمل طوعي وأخلاقي وتشغيلي يوجه المنظمة في تصميم ونشر ومراقبة أنظمة الذكاء الاصطناعي بما يتماشى مع قيمها ورغبتها في المخاطرة ومسؤولياتها الاجتماعية.

والحوكمة هي الطريقة التي تضمن بها مؤسستك أن ما هو ممكن باستخدام الذكاء الاصطناعي يظل متوافقًا مع ما هو مقبول لدى المجتمع.

ويعني نهج “الحوكمة أولاً” أن الأخلاقيات تسبق السياسات والإجراءات والتكنولوجيا، هذا الترتيب مهم ففي قطاعات الرعاية الصحية والتكنولوجيا المالية وتكنولوجيا التعليم، حيث تكون عواقب الأخطاء وخيمة، فإن دمج الحوكمة منذ البداية يجنبنا المخاطر المكلفة والمُضرة بالسمعة التي قد تنجم عن محاولة تعديل الأخلاقيات أو الامتثال لاحقاً.

حوكمة الذكاء الاصطناعي ليس حكرا على الحكومات

أصبح مصطلح حوكمة الذكاء الاصطناعي في كثير من الأحيان مصطلحاً فضفاضاً يُستخدم بشكل عشوائي، وكثيراً ما يُربط باللوائح الحكومية أو يُعامل كشرط شكلي للامتثال.

لكن هذه النظرة الضيقة تغفل الهدف الأسمى والأكثر إلحاحاً لحوكمة الذكاء الاصطناعي وهو وضع أطر عمل تتكامل فيها العمليات والسياسات والأفراد لإنشاء أنظمة ذكاء اصطناعي تتمحور حول الإنسان، وتلتزم بالمعايير الأخلاقية، ومصممة لتحقيق منفعة المجتمع.

إن حوكمة الذكاء الاصطناعي ليست مشكلة الحكومات والمؤسسات الحكومية فقط بل أيضا مشكلة القطاع الخاص الذي يستخدم هذه التقنيات ويحتاج إلى تحديد أخلاقيات للتعامل مع هذه الأدوات في تحسين جودة المنتجات والخدمات دون انتهاك خصوصية العملاء على سبيل المثال أو استخدام بياناتهم بدون إذنهم في انتاج محتوى جديد وتوزيعه والتربح منه.

ركائز حوكمة الذكاء الإصطناعي

يتطلب دمج الحوكمة في دورة حياة الذكاء الاصطناعي وعملياته اليومية ربط المبادئ الأخلاقية بأهداف العمل.

وعادة ما تقوم حوكمة الذكاء الإصطناعي من خلال ثلاث ركائز أساسية ألا وهي الشفافية، والمراقبة، والتفسير.

غير أنه من الشائع أن تتداخل هذه العناصر في كثير من الأحيان في الممارسة العملية وتتجلى في تطبيقات تكتيكية محددة تشمل ما يلي:

الترجمة الأخلاقية

ينبغي أن تُحوّل بنية الذكاء الاصطناعي وسياساته البرمجية القيم العامة إلى قواعد وآليات تحفيز ومسارات تصعيد، على سبيل المثال، إذا تنبأ نموذج رعاية صحية بتشخيص مُغيّر للحياة بدرجة ثقة منخفضة، فينبغي أن تُفعّل ضوابط الحوكمة مراجعة بشرية وتتطلب موافقة على الخطوات التالية.

رسم خرائط المخاطر والتأثيرات

ينبغي أن تُساعد عمليات حوكمة الذكاء الاصطناعي مؤسستك في تحديد مجالات الضرر المحتملة – مثل الخصوصية والتحيز والسلامة والأمن – وقياس احتمالية كل منها وشدتها.

اعتبر هذا نظامًا ديناميكيًا لتقييم المخاطر يتم تفعيله أثناء تدريب النموذج وتحسينه، وكذلك بعد نشره، بدلاً من تقييم لمرة واحدة.

ضوابط، إشراف، ودورات تحسين

طبّق عمليات تدقيق عبر دورة حياة تطوير ونشر الذكاء الاصطناعي، بما في ذلك التحقق من صحة البيانات، وضوابط الوصول، وسجلات التدقيق، وآليات التدخل البشري، ومراقبة النموذج لاكتشاف الانحرافات وتخفيف التحيز.

ينبغي أن يشمل ذلك أيضًا حلقات تغذية راجعة وتعلم واضحة، حوكمة الذكاء الاصطناعي عملية مستمرة وتكرارية.

ينبغي دمج الدروس المستفادة من الحوادث، وعمليات التدقيق، أو حالات فشل النماذج في تعديلات السياسات البرمجية، تمامًا كما هو الحال في دورة تطوير المنتجات (PDSA).

ومن الأفضل إشراك فريق عمل متعدد الأطراف معني بحوكمة الذكاء الإصطناعي في دورات المراجعة والتقييم والتحسين طوال دورة حياة الذكاء الاصطناعي.

الثقافة والمساءلة وإدارة التغيير

لا تزدهر الحوكمة إلا عندما تلتزم بها القيادة، ويتلقى الموظفون التدريب اللازم، وتُشجع الحوافز الخيارات الأخلاقية وتعززها، وليس فقط السرعة أو الأداء أو الابتكار.

تتطلب حوكمة الذكاء الاصطناعي التركيز على إدارة التغيير، ودعم القيادة، وتدريب القوى العاملة أثناء تطبيق حلول الذكاء الاصطناعي.

مفارقة الشفافية والاحتواء في حوكمة الذكاء الإصطناعي

تشير مفارقة الشفافية والاحتواء في الذكاء الاصطناعي إلى التوتر المُتصوَّر بين الكشف الكافي لبناء المساءلة والحماية الكافية للحفاظ على خصوصية البيانات وأمنها باختصار يؤدي نقص الشفافية إلى تآكل ثقة الجمهور وإثارة الشكوك.

بينما تُعرِّض الشفافية المفرطة الأنظمة للتلاعب وتسريب البيانات والهجمات الإلكترونية، يكمن فن الحوكمة في إيجاد هذا التوازن، لا سيما في مجال الذكاء الاصطناعي في الرعاية الصحية، حيث يحتاج الأطباء إلى فهم كيفية توصل النماذج إلى استنتاجاتها، مع ضرورة الحفاظ على خصوصية المرضى.

الشفافية والاحتواء ليسا نقيضين، بل هما التزامان متداخلان إذ تتطلب الحوكمة الفعّالة تصميم الشروط التي تسمح بتحقيق التوازن الأمثل.

مراحل تطور حوكمة الذكاء الإصطناعي

في المراحل المبكرة، قد تعتمد المؤسسات على سياسات مؤقتة أو “نوايا أخلاقية”، ومع نضوجها، تُضفي الطابع الرسمي على الحوكمة من خلال تحديد واضح للمسؤوليات، ووضع مقاييس، وتطبيق دورات تحسين مستمرة.

يتكون نموذج نضج الذكاء الاصطناعي من خمس فئات متدرجة تُمكّن المؤسسات من تقييم قدرات حوكمة الذكاء الإصطناعي وتعزيزها بمرور الوقت.

تتراوح هذه الفئات من التجريب (حيث يتم الاستكشاف الأولي والتطبيق المبكر لمبادئ حوكمة الذكاء الاصطناعي)، إلى الإدارة (حيث تُرسخ عمليات الحوكمة الأساسية وتصبح قابلة للتكرار إلى حد ما)، إلى التحديد (حيث تُوثق ممارسات الحوكمة الموحدة وتُدمج في جميع أنحاء المؤسسة)، إلى القياس (حيث تُستخدم مقاييس كمية لتتبع فعالية الحوكمة وتوجيه التحسين)، وأخيرًا إلى التحسين (حيث يصبح التحسين المستمر وتكييف ممارسات الحوكمة جزءًا لا يتجزأ من ثقافة المؤسسة ودورة حياة تطوير الذكاء الاصطناعي).

لماذا تُعدّ الحوكمة المُسبقة في غاية الأهمية في القطاعات الخاضعة للتنظيم؟

في قطاعات مثل الرعاية الصحية والتكنولوجيا المالية وتكنولوجيا التعليم، لا تُعتبر الحوكمة خيارًا، بل ضرورة حتمية.

في مجال الرعاية الصحية، تؤثر قرارات الذكاء الاصطناعي على حياة المرضى فسلامتهم، وخصوصية البيانات، وإمكانية تفسيرها أمور لا تقبل المساومة.

في مجال التكنولوجيا المالية، يؤثر الذكاء الاصطناعي على منح الائتمان والقروض والحماية من الاحتيال، مما يثير مخاوف بشأن العدالة والتحيز.

في مجال تكنولوجيا التعليم، يُشكّل الذكاء الاصطناعي أساليب تعلم الطلاب وتقييمهم، مما يستلزم ضمانات للإنصاف والشفافية وحماية الخصوصية.

لكل مجال معاييره الخاصة للمخاطر المقبولة، ولكل شركة مستوى تقبّلها للمخاطر، تُساعد أُطر الحوكمة المُسبقة المؤسسات على الالتزام بهذه المعايير مع الاستمرار في الابتكار بمسؤولية وربط الابتكار بمؤشرات الأداء الرئيسية.