أصدرت الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا” تقريرًا متخصصًا عن “التحيز في أنظمة الذكاء الاصطناعي” بهدف تسليط الضوء على التحديات التي تواجه تطوير وتبني أنظمة الذكاء الاصطناعي في ظل توسـع كثير من الدول والمنظمات والشركات العالمية فـي تفعيل تطبيقات الذكاء الاصطناعي بشكل مضطرد في عددٍ من القطاعات الحساسة والحيوية، وما رافق ذلك من قلق متنام من تسرّب التحيز إلى أنظمة الذكاء الاصطناعـي لاسيما تلك المرتبطة باتخاذ القرار.

والتحيز في الذكاء الاصطناعي هو عبارة عن ميل غير عادل أو غير مقصود في مخرجات هذه الأنظمة وينشأ عن بيانات مُنحازة أو تصميم غير متوازن للخوارزميات، وقد يحدث في أنظمة الذكاء الاصطناعي بسبب التحيزات الإدراكية التي تؤدي إلى الانحراف عـن التفكير العقلاني أو السلوك الطبيعي في اتخاذ القرار أو الحكم على الأشياء، وغالبًا ما تنبع من التصورات الذهنية أو الاختصارات العقلية التي يستخدمها العقل البشري لتبسيط وتسريع عمليات الفهم واتخاذ القرارات أو بسبب التحيزات التقنية التي تنشأ عن تصميم وبناء أنظمة الذكاء الاصطناعـي وتطويرها وتنفيذها وتنبع من الجوانب الفنية للتقنية نفسها مثـل: التحيز في القياس أو الخوارزميات التي قد تؤثر في عدالة أو دقة أنظمة الذكاء الاصطناعـي.

وبذلت “سدايا” جهودًا كبيرة في تقليل التحيز في أنظمة الذكاء الاصطناعي من خلال تطوير معايير أخلاقية تضمن العدالة والشفافية وعدم التمييز، مع تحسين جودة مخرجات الذكاء الاصطناعي، ولضمان التزام تطبيقات الذكاء الاصطناعي بهذه المعايير، وأطلقت أداة متخصصة لقياس مدى الامتثال للمعايير الأخلاقية، مما يسهم في تعزيز استخدام الذكاء الاصطناعي بشكل مسؤول وعادل.

وفي إطار التعاون الدولي، عملت سدايا مع المنظمات الدولية المهتمة بأخلاقيات الذكاء الاصطناعي لضمان تطبيق أفضل المعايير العالمية لأخلاقيات الذكاء الاصطناعي، حيث أنشأت المملكة العربية السعودية ممثلة في “سدايا” مركزًا دوليًا لأبحاث وأخلاقيات الذكاء الاصطناعي (ICAIRE) في الرياض بالتعاون مع منظمة اليونسكو؛ بهدف تعزيز الأبحاث الأخلاقية في الذكاء الاصطناعي ودراسة الحلول الممكنة لمعالجة تحديات الاستخدام الأخلاقي لهذه التقنية على المستوى الدولي.

كما نظّمت سدايا القمة العالمية للذكاء الاصطناعي لأعوام (2021 و2022 و2024) تحت شعار “الذكاء الاصطناعي من أجل خير البشرية” بهدف التوعية ومناقشة التحديات المرتبطة بالتحيز وتعزيز تطبيقات عادلة وشفافة تخدم الإنسانية، ولم تقتصر “سدايا” على الجانب التنظيمي فحسب، بل انتقلت إلى التطبيق العملي، حيث اتخذت عدة تدابير للحد من التحيزات في الأنظمة التي تقوم على تطويرها، بدءًا من مرحلة جمع البيانات وضمان جودتها ودقتها وتنوعها وحتى مرحلة نشر النموذج ، مثل “عيناي” ونموذج الكشف عن سرطان الثدي ونموذج التنبؤ بخطر الإصابة بالسكتة الدماغية.

وحذر التقرير من أنه يمكن أن يدخل الخطأ البشري والتحيز وسوء التقدير في دورة حياة بناء أنظمة الذكاء الاصطناعي، ويؤدي إلى خلق تحيّزات في تلك الأنظمة بصورة مقصودة أو غير مقصودة، وهذه التحيزات قد تقع في المراحل الأولية لصياغة المشكلة وجمع البيانات واستكشـافها إلى المراحل الحرجة كبناء النموذج والتنفيذ إلا أن فهـم مصادرها وكيفية ظهورها ووجود سياسات وإجراءات وضوابط مدروسة وأدوات تقنية مساعدة يُمكن أن يساعد على تجنب كثير منها ويخفف من حدة آثارها.

وأشار التقرير إلى إمكانية أن تنشأ التحيزات من البيانات المستخدمة لتدريـب الأنظمة أو الخوارزميات المستخدمة لمعالجة تلك البيانات أو حتى طريقة عـرض النتائج على المستخدمين مما قد تؤدي إلى تكريس صورة نمطية سلبية تجاه أحد الفئات، داعيًا إلى مراقبة ومراجعة النماذج قيد التشغيل بشكل مستمر لضمان الالتزام بالسياسات الأخلاقية المعتمدة بما يساعد في الكشف عن التحيزات مبكرًا، وتخفيفها قبل استفحال ضررها والبقاء على اطلاع بالبحوث الصادرة في هذا المجال، واختيار الموردين الملتزمين بتطوير تطبيقات الذكاء الاصطناعـي المسؤول.

وقدّم التقرير مجموعة من الحلول والتوصيات لمواجهة التحيز في الذكاء الاصطناعي، من بينها تطوير خوارزميات تتبنى مبادئ الشفافية والعدالة، وتحسين جودة البيانات من خلال ضمان تنوعها وتمثيلها لجميع الفئات، وزيادة الوعي بخطورة التحيز وتأثيره في المجتمعات لتحقيق التوازن والإنصاف، ووضع معايير وقواعد موحدة ومناسبة لتسمية البيانات لكي يتم تلافي عدم التوافق والاتساق في التسميات بين المسـميين مع الاستعانة ببعض الأدوات الناضجة في هذا المجال مثل اتفاقية المسـمين.

ودعا التقرير في ذلك الجانب إلى تنويع فريق العمل المسـؤول عن تطوير ونشر أنظمة الذكاء الاصطناعي وشموليته، وصيانة البنية التحتية لأنظمة الذكاء الاصطناعي لضمان الحفاظ على كفاءة هذه الأنظمة ووقايتها من تسرب التحيزات إليها، والتأكد بشكل دوري من كونها تعمل بكفاءة إلى جانب اعتماد إجراءات للتخفيف من تحيز البيانات عند ملاحظتهـا، وإجراءات لحماية بيانات المستفيدين، وعدم نشر التطبيقات إلا بعد مراجعتها من فرق الحوكمة المتخصصة والمُدربة على البحث عـن أنواع التحيزات في جميع دورات حياة بناء أنظمة الـذكاء الاصطناعـي والإبلاغ
عـن أي مخاوف عند توقعها.
ويمكن الاطلاع على التقرير من خلال زيارة الرابط التالي: https://2u.pw/z2VXywn4 .

شاركها.
© 2025 خليجي 247. جميع الحقوق محفوظة.