كيف يمكننا تخليص الذكاء الاصطناعي؟

يلعب الذكاء الاصطناعي بالفعل دورًا كبيرًا في قطاع الخدمات المالية ، ومهنة الطب ، وعالم التوظيف والعديد من المجالات المهمة الأخرى. ومع ذلك ، الحالية AI يعمل بشكل جيد فقط إذا تم استخدام المعلومات الصحيحة لتدريبه. ولكن عندما يكون البشر هم من يجمعون تلك المعلومات ، فإن ذلك يفتح الباب أمام التحيز. إذن كيف نضمن إزالة الحيازة في الذكاء الاصطناعي؟
فهم العملية
الذكاء الاصطناعي غير قادر حتى الآن على التفكير بنفسه ، لذلك فإن المساعدة البشرية مطلوبة في تجميع البيانات الضرورية التي يحتاجها. إنه يشبه إلى حد ما برمجة أي كمبيوتر آخر بمعنى أننا نحصل فقط على نتائج جيدة أو قرارات صحيحة من المعلومات الصحيحة والمنظمة بشكل صحيح. إذا فهمت ذلك بشكل خاطئ ، فقد تكون النتائج مدمرة.
على سبيل المثال ، في تدريب خوارزميات التوظيف بناءً على البيانات التاريخية ، كان لدينا ذكاء اصطناعي يفضل الشباب والبيض ويستبعد النساء والأشخاص الملونين. باختصار ، كانت بيانات التدريب هنا خاطئة ومنحازة بشكل واضح. يمكن أن يساعدنا فهم هذا في بدء عملية إزالة الحواف لأن بعض النماذج ستحتاج إلى كميات هائلة من البيانات لمساعدتها على فهم العالم. شيء بسيط مثل الحصول على البيانات الوصفية الصحيحة المرتبطة بالتركيبة السكانية أمر حيوي.
يسأل كل الأسئلة الهامة؟
عند استخدام الذكاء الاصطناعي ، يفرض التشريع (والمنطق السليم) أننا بحاجة إلى النظر في كيفية توصلنا إلى قرار معين أو سلسلة من الإجابات ، خاصة عندما لا نكون سعداء تمامًا بالنتيجة. تحقيقا لهذه الغاية ، هناك بالفعل مجال متزايد من البحث في "الذكاء الاصطناعي القابل للتفسير" ، حيث يمكننا النظر في مجموعة من النماذج والكشف عن القرارات التي تستند إليها.



من الناحية المثالية ، يتم تضمين القابلية للتفسير في النموذج نفسه. ولكن حتى ما يسمى بنماذج الصندوق الأسود يمكن تشغيلها بطريقة يمكننا ، من خلال القليل من الخداع ، استنتاج أي جزء من بيانات الإدخال كان له التأثير الأكبر على التصنيف الذي قدمته الشبكة المعنية.
هذا مهم لأن جميع الأفراد في أوروبا يتمتعون الآن بالحق القانوني في شرح القرارات الآلية لهم ، وبالتالي فإن الشفافية هي كل شيء. تعرضت HMRC لانتقادات شديدة في السنوات الأخيرة بسبب الافتقار إلى الشفافية حول كيفية استخدامها للذكاء الاصطناعي لاتخاذ قرارات بشأن الأشخاص الذين يجب أن يحصلوا على ائتمان عالمي على سبيل المثال. قد لا يستنتج هذا التحيز بالطبع ، لكن الشفافية هي بالتأكيد الكلمة الأساسية هنا.
اتخاذ الخطوات الآن
لماذا يجب أن نكون قلقين للغاية بشأن ضمان تسريع عملية إزالة الحيازة في الوقت الحالي؟ لأن الذكاء الاصطناعي أصبح بالفعل أداة مهمة حقًا في عالمنا الرقمي المتطور باستمرار. نحن بحاجة إلى فهم كيف يمكننا استخدام هذا المفهوم للحصول على أفضل النتائج لجميع المعنيين.
فيما يتعلق بالقطاعات التي تستخدم الذكاء الاصطناعي ، يمكن أن يكون للقرارات المتخذة تأثير كبير على حياة الناس. ما لا نريده هو رعاية عصر من التمييز ببساطة من خلال التدريب على البيانات الخاطئة.
يستخدم الأطباء بشكل متزايد الخوارزميات التي تعتمد على البيانات للتوصل إلى قرارات بشأن الرعاية الصحية عبر الذكاء الاصطناعي: هذه هي قرارات الرعاية الصحية مثل تشخيص السرطانات وأمراض القلب وأمراض العيون. هناك تطبيقات متقدمة جديدة في الطريق. لكن هناك مخاطر كامنة في التدريب على البيانات الخاطئة.
باستخدام مثال أمريكي حديث في مجال الرعاية الصحية ، ميزت الخوارزمية المعتمدة على نطاق واسع بوضوح ضد الأفراد السود من خلال ربط الرعاية بالتكاليف. كانت المشكلة هنا أن الذكاء الاصطناعي خلص إلى أن القوقازيين ينفقون أموالًا أكثر بكثير على الرعاية الصحية ، ويجب أن يكون السود أكثر صحة بشكل عام. بالنظر إلى نظام الرعاية الصحية الحالي في الولايات المتحدة ، كان هذا الافتراض خاطئًا بشكل خطير بالطبع.
من المهم ملاحظة أنه عندما يظهر تحيز شخصي على نطاق واسع ، يمكننا إطلاق سلسلة من ردود الفعل السلبية. بالنسبة للأشخاص الذين يتلقون العلاج المناسب ، أو وظيفة بناءً على قدراتهم الحقيقية أو لأولئك الذين يبحثون عن تأمين ذي قيمة ، فإن القضاء على التحيز في نهج الذكاء الاصطناعي الخاص بنا لا يقدر بثمن. خلاصة القول هي أن النهج الخاطئ يمكن أن يؤدي إلى فشل الشركات وتدمير الأرواح وتضخم الأسعار وجميع أنواع السيناريوهات السلبية. نحن بحاجة إلى مزيد من العمل الذي يتم تنفيذه بشأن إزالة الحياكة عن المعلومات عند نقطة الجمع.
الاستنتاجات
ليس هناك شك في أن التحيز ، سواء كان على أساس الجنس أو العرق ، ينبع من التحيز البشري الأساسي. عندما يتعلق الأمر باستخدام الذكاء الاصطناعي في صنع القرار ، يمكننا أن نرى أن الجودة المنخفضة للبيانات التي يولدها هذا التحيز البشري يمكن أن تؤدي إلى نتائج مثيرة للقلق. سيتم تضخيم هذا التحيز الناتج عن النموذج.
يجب أن نصمم جميع نماذج الذكاء الاصطناعي بوضوح مع مراعاة التضمين ، وإجراء اختبار مستهدف في الحالات المعقدة والتدريب على بيانات كاملة وتمثيلية. سيساعد كل هذا في ضمان استمرار تحسن عملية إزالة الحياكة.