في السنوات الأخيرة ، زاد القلق بين صانعي السياسات والعامة حول “قابلية شرح” أنظمة الذكاء الاصطناعي. مع تقدم الذكاء الاصطناعي وتطبيقه على مجالات مثل الرعاية الصحية والتوظيف والعدالة الجنائية ، يطالب البعض بجعل هذه الأنظمة أكثر شفافية وقابلة للتفسير. المخاوف تكمن في أن طبيعة “الصندوق الأسود” لنماذج التعلم الآلي الحديثة تجعلها غير مسؤولة وخطرة.

على الرغم من أن الرغبة في شرح الذكاء الاصطناعي مفهومة ، إلا أن أهميتها غالباً ما تُبالغ فيها. فالمصطلح نفسه غير معرف بشكل جيد – ما هي المعايير التي تجعل النظام قابل للشرح بالضبط لا تزال غير واضحة. والأهم من ذلك ، فإن عدم القدرة على الشرح لا تجعل نظام الذكاء الاصطناعي غير موثوق أو غير آمن.

من المؤكد أن مبتكرو نماذج التعلم العميق الحديثة لا يمكنهم شرح بالكامل كيف تحول هذه النماذج المدخلات إلى النواتج. إن تعقيدات الشبكة العصبية المدربة على الملايين من الأمثلة هي ببساطة تعقيدات جداً بالنسبة لعقل بشري لفهمها بالكامل. ولكن يمكن قول الشيء نفسه عن العديد من التقنيات الأخرى التي نستخدمها كل يوم.

علينا أن نركز في البداية عندما يتعلق الأمر بأنظمة الذكاء الاصطناعي التي تعتبر رهانًا كبيرًا على اختبارها للتحقق من أدائها وضمان سلوكها كما هو مقصود. فإن استكشاف خوارزمية الحكم الجنائي لفهم كيف تجمع مئات الميزات يعد أقل أهمية من تقييم دقتها التجريبية في توقع معدلات الانتكاس بين السجناء السابقين.

مجال جديد يسمى قابلية شرح الذكاء الاصطناعي يهدف إلى فتح الصندوق الأسود للتعلم العميق إلى حد ما. أسفرت الأبحاث في هذا المجال عن تقنيات لتحديد أي ميزات الإدخال هي الأكثر بروزًا في تحديد تنبؤات النموذج ، ولتوصيف كيفية تدفق المعلومات من خلال طبقات شبكة عصبون اصطناعي. مع الوقت ، سنحصل على صورة أوضح عن كيفية معالجة هذه النماذج للبيانات للوصول إلى النواتج.

ومع ذلك ، يجب أن لا نتوقع أن يكون أنظمة الذكاء الاصطناعي كلها قابلة للشرح بالتطبيق كما يمكن أن يكون معادلة بسيطة أو شجرة قرارية. من المحتمل دائمًا أن تتضمن النماذج الأقوى مستوى بعض أنواع التعقيد التي لا يمكن تقليلها. وهذا بخير. الكثير من المعرفة البشرية مستقطن وصعب التعبير عنها – الجراند ماستر في الشطرنج لا يمكنه شرح بالكامل بلورته الاستراتيجية ، والرسام الماهر لا يمكنه تفسير مصدر إلهامه بالكامل. الأمر الهام هو أن نتاثر النتائج النهائية لجهدهم تقدر منهم ومن الآخرين.

بالفعل ، يجب علينا أن نحرص على عدم تصديق قابلية الشرح على حساب الأولويات الأخرى. لا يعني الذكاء الاصطناعي الذي يمكن تفسيره بسهولة من قبل الإنسان بالضرورة أنه أكثر قوة أو موثوقية من النموذج الصندوقي الأسود. حتى يمكن أن يكون هناك تضاربات بين الأداء والشرح. قد لا يكون مايكل جوردان قادرا على شرح التفاصيل المعقدة لكيفية تنسيق عضلاته وأعصابه وعظامه لتنفيذ طريقة خطافية من خط الفري ثرو . ومع ذلك ، نجح في القيام بتلك الإنجاز الرائع.

في النهاية ، ينبغي تقييم نظام الذكاء الاصطناعي بناء على تأثيره العملي في العالم الحقيقي. نموذج توظيف غير شفاف ولكنه أكثر دقة في توقع أداء الموظفين يفضل على نموذج مستند على القواعد الشفافة الذي يوصي بالعمال الكسالى. إن خوارزمية كشف الأورام التي لا يمكن تفسيرها ولكنها تكتشف السرطانات بشكل أكثر موثوقية من الأطباء تستحق النشر. يجب أن نسعى لجعل أنظمة الذكاء الاصطناعي قابلة للتفسير في أقدر الحالات ، لكن ليس على حساب الفوائد التي تقدمها.

وبالطبع ، لا يعني ذلك أن يكون الذكاء الاصطناعي غير مسؤول. يجب على المطورين اختبار أنظمة الذكاء الاصطناعي بشكل شامل وتحقق من أدائها في العالم الحقيقي وسعيهم لمزامنتها مع القيم الإنسانية ، خاصة قبل أن يُطلقوها على العالم بأسره. لكن يجب علينا عدم السماح لمفاهيم شرح الذكاء الاصطناعي أن تشوشنا أو حتى أن تكون عقبة أمام استدامة الإمكانيات الهائلة للذكاء الاصطناعي في تحسين حياتنا. باعتبار اتخاذ الاحتياطات الملائمة ، يمكن أن يكون النموذج الصندوقي أداة قوية للخير. في النهاية ، الناتج هو ما يهم ، وليس ما إذا كان العملية التي سلمت الناتج يمكن شرحها.

شاركها.
© 2024 خليجي 247. جميع الحقوق محفوظة.