يجب ألا ننتظر الحكومة لملء الفراغ في حوكمة الذكاء الاصطناعي.

في يوليو من هذا العام ، وضعت المملكة المتحدة الجديدة AI "كتاب القواعد" الذي يقترح كيفية تنظيم هذه التكنولوجيا التحويلية في المستقبل. من خلال موازنة دعم ابتكار الذكاء الاصطناعي بالحاجة إلى الحماية العامة ، فإنه يفتح نقاشًا عامًا حول دور المنظمين داخل هياكل حوكمة الذكاء الاصطناعي. ومع ذلك ، لا يمكن للمنظمات الانتظار حتى يتم الانتهاء من كتاب القواعد هذا للتعامل مع الأسئلة التي يطرحها الذكاء الاصطناعي.
جعلت المخاوف بشأن خوارزميات الصندوق الأسود غير الشفافة للأسئلة المتعلقة بالاستخدام الأخلاقي للبيانات الشخصية والمسؤوليات المتعلقة بالأمان والخصوصية من الذكاء الاصطناعي مرتعًا للمعضلات الأخلاقية الحديثة.
يجب معالجة هذه المعضلات من خلال مجموعات كبيرة من المؤسسات العامة والخاصة التي تعتمد الآن على الذكاء الاصطناعي لدعم الابتكار. ومع ذلك ، على الرغم من انتشار الذكاء الاصطناعي في المؤسسة ، لا تزال العديد من المنظمات تفتقر إلى حوكمة قوية للذكاء الاصطناعي ضرورية لضمان سلامة وأمن الأنظمة التي تقودها البيانات.
في الواقع ، تُظهر أحدث أبحاث O'Reilly أن أكثر من نصف منتجات الذكاء الاصطناعي قيد الإنتاج في المنظمات العالمية لا تزال تفتقر إلى خطة حوكمة تشرف على كيفية إنشاء المشاريع وقياسها ومراقبتها. يثير القلق الشديد أن الخصوصية والأمن - القضايا التي قد تؤثر بشكل مباشر على الأفراد - كانت من بين أقل المخاطر التي ذكرتها المؤسسات عند سؤالها عن كيفية تقييمها لمخاطر تطبيقات الذكاء الاصطناعي. تشير المنظمات المدعومة بالذكاء الاصطناعي إلى أن "النتائج غير المتوقعة" هي أهم المخاطر التي تواجه مشاريع الذكاء الاصطناعي ، تليها عن كثب إمكانية تفسير النماذج وتدهور النماذج ، مما يمثل قضايا الأعمال. يتم تصنيف كل من التفسير والخصوصية والإنصاف والسلامة في مرتبة أقل من مخاطر العمل.



قد تكون هناك تطبيقات AI حيث الخصوصية والإنصاف لا يمثلان مشاكل (على سبيل المثال ، نظام مضمن يقرر ما إذا كانت الأطباق في غسالة الأطباق الخاصة بك نظيفة). ومع ذلك ، يجب على الشركات التي لديها ممارسات الذكاء الاصطناعي إعطاء الأولوية للتأثير البشري للذكاء الاصطناعي كضرورة أخلاقية وأولوية عمل أساسية.
كما يبرز UKRI (UK Research and Innovation) ، فإن `` الاستخدام المسؤول للذكاء الاصطناعي يثبت أنه عامل تمييز تنافسي وعامل نجاح رئيسي لاعتماد تقنيات الذكاء الاصطناعي. ومع ذلك ، فإن التحديات الثقافية ، ولا سيما انعدام الثقة ، لا تزال تعتبر العقبات الرئيسية التي تحول دون تبني الذكاء الاصطناعي على نطاق أوسع وأسرع.
إن الافتقار إلى الحوكمة ليس مجرد مصدر قلق أخلاقي. يعد الأمان أيضًا مشكلة كبيرة ، حيث يتعرض الذكاء الاصطناعي للعديد من المخاطر الفريدة: تسمم البيانات ، والمدخلات الضارة التي تولد تنبؤات خاطئة ، ونماذج الهندسة العكسية لكشف المعلومات الخاصة ، على سبيل المثال لا الحصر. ومع ذلك ، لا يزال الأمان قريبًا من أسفل قائمة مخاطر الذكاء الاصطناعي المتصورة.
مع تقدم مجرمي الإنترنت والجهات الفاعلة السيئة في تبنيهم للتكنولوجيا المتطورة ، لا يمكن للأمن السيبراني أن يتراجع في السباق لتحقيق وعد الذكاء الاصطناعي. إنه جزء حيوي من حوكمة الذكاء الاصطناعي التي تشتد الحاجة إليها. يجب أن ترفع الحوكمة مصفوفة عوامل الخطر لمشاريع الذكاء الاصطناعي ، لتصبح حجر الزاوية في أي برنامج تطوير ونشر.
حوكمة الذكاء الاصطناعي باختصار
مع وضع ذلك في الاعتبار ، ما هي حوكمة الذكاء الاصطناعي بالضبط؟ وفقًا لشركة Deloitte ، فهي تشمل مجموعة واسعة من القدرات التي تركز على قيادة الاستخدام المسؤول للذكاء الاصطناعي. فهو يجمع بين بنيات الحوكمة التقليدية (السياسة ، والمساءلة ، وما إلى ذلك) مع البنيات التفاضلية مثل مراجعة الأخلاق ، واختبار التحيز ، والمراقبة. ينحدر التعريف إلى وجهة نظر تشغيلية للذكاء الاصطناعي ويحتوي على ثلاثة مكونات: البيانات ، والتقنية / الخوارزمية ، وسياق الأعمال.
باختصار ، "يتطلب تحقيق الاستخدام الواسع النطاق للذكاء الاصطناعي حوكمة فعالة للذكاء الاصطناعي من خلال الإدارة الفعالة لمخاطر الذكاء الاصطناعي وتنفيذ المعايير والإجراءات التمكينية".
بدون إضفاء الطابع الرسمي على حوكمة الذكاء الاصطناعي ، من غير المرجح أن تعرف المؤسسات متى تصبح النماذج قديمة ، أو تكون النتائج متحيزة ، أو عندما يتم جمع البيانات بشكل غير صحيح. الشركات التي تطور أنظمة ذكاء اصطناعي بدون حوكمة صارمة لمعالجة هذه المشكلات تخاطر بأعمالها التجارية. إنها تترك المجال مفتوحًا أمام الذكاء الاصطناعي للسيطرة بشكل فعال ، مع نتائج غير متوقعة يمكن أن تسبب ضررًا لا يمكن إصلاحه للسمعة والأحكام القانونية الكبيرة.
أقل هذه المخاطر هو أن التشريعات ستفرض الحوكمة ، وأولئك الذين لم يمارسوا حوكمة الذكاء الاصطناعي سيحتاجون إلى اللحاق بالركب. في المشهد التنظيمي سريع التغير اليوم ، يمثل اللعب باللحاق خطرًا على السمعة ومرونة الأعمال.
ما الذي خلق فجوة حوكمة الذكاء الاصطناعي؟
أسباب فشل حوكمة الذكاء الاصطناعي معقدة ومترابطة. ومع ذلك ، هناك شيء واحد واضح - التطور السريع للذكاء الاصطناعي واعتماده لم يقابله ارتفاع في التعليم والوعي بمخاطره. ما يعنيه هذا هو أن الذكاء الاصطناعي يعاني من مشكلة تتعلق بالناس.
على سبيل المثال ، تتمثل أهم معوقات تبني الذكاء الاصطناعي في نقص الأشخاص المهرة. يوضح بحثنا وجود فجوات كبيرة في المهارات في المجالات التكنولوجية الرئيسية ، بما في ذلك نمذجة ML وعلوم البيانات ، وهندسة البيانات ، وصيانة حالات استخدام الأعمال. إن فجوة مهارات الذكاء الاصطناعي موثقة جيدًا ، مع الكثير من المناقشات والسياسات الحكومية لتعزيز مهارات البيانات من خلال التعليم العالي المركّز والارتقاء / إعادة تشكيل المهارات.
ومع ذلك ، فإن المهارات التكنولوجية ليست كافية لسد الفجوة بين الابتكار والحوكمة. ليس من المستحسن ولا من العدل ترك الحوكمة للمواهب الفنية وحدها. لا شك أن أولئك الذين لديهم المهارات اللازمة لتطوير الذكاء الاصطناعي يجب أن يكونوا مجهزين بالمعرفة والقيم لاتخاذ القرارات وحل المشكلات ضمن السياق الأوسع الذي يعملون فيه. ومع ذلك ، فإن حوكمة الذكاء الاصطناعي هي حقًا جهد جماعي وتمثل قيم المؤسسة التي تم إحياؤها.
وهذا يعني أنه لا يمكن لأي منظمة أن تشعر بالرضا عند تضمين الأخلاق والأمن في مشاريع الذكاء الاصطناعي منذ البداية. يجب على الجميع في جميع أنحاء المؤسسة ، من الرئيس التنفيذي إلى محلل البيانات ومن رئيس قسم المعلومات إلى مدير المشروع ، المشاركة في حوكمة الذكاء الاصطناعي. يجب أن تتوافق مع سبب أهمية هذه القضايا وكيف تعمل قيم المنظمة من خلال تطبيقات الذكاء الاصطناعي.
يتقدم ابتكار الذكاء الاصطناعي إلى الأمام بينما تلعب الحكومات والهيئات التنظيمية في جميع أنحاء العالم دورًا في اللحاق بالركب فيما يتعلق بما تعنيه هذه التقنيات الجديدة للمجتمع الأوسع. تضع أي منظمة مدركة أخلاقياً خصوصية الجمهور وأمنه وحمايته أولاً وقبل كل شيء ، ولكن بدون وجود حوكمة صارمة للذكاء الاصطناعي ، هناك فراغ أخلاقي محتمل. لا يمكننا الانتظار حتى يتم ملء هذا من خلال اللوائح. يجب أن تكون المنظمات استباقية في مواجهة هذه الأسئلة الصعبة بقدر ما هي حول تبني قوة الذكاء الاصطناعي ووعده.