تعمل الحكومة البريطانية على وضع تشريعات جديدة لتنظيم الذكاء الاصطناعي، بعد أشهر من تعهد رئيس الوزراء بعدم “الاستعجال” في وضع قواعد لتقنية النمو السريع. من المحتمل أن تضع هذه التشريعات حدودًا على إنتاج النماذج اللغوية الكبيرة، التكنولوجيا العامة التي تقوم عليها منتجات الذكاء الاصطناعي مثل ChatGPT من OpenAI. تتضمن الخطط مطلبًا لشركات تطوير النماذج الأكثر تعقيدًا بمشاركة خوارزمياتها مع الحكومة وتقديم دليل على إجراء اختبارات سلامة.
يأتي ذلك في وقت تزداد فيه المخاوف من الجهات التنظيمية بشأن الأضرار الكامنة، من إمكانية تضمين التكنولوجيا لتحيزات تؤثر على فئات سكانية معينة، إلى استخدام النماذج العامة لإنشاء مواد ضارة. قد أكدت سارة كاردل، الرئيس التنفيذي للهيئة البريطانية للمنافسة والأسواق، أن هناك “مخاوف حقيقية” من أن عددًا قليلًا من شركات التكنولوجيا القائمة على الذكاء الاصطناعي يمكن أن تشكل “الأسواق بهلوانية بمصلحتها”.
على عكس ذلك، اتخذت الاتحاد الأوروبي موقفاً أكثر صرامة. أقر البرلمان الأوروبي في الشهر الماضي بعض من أولى وأكثر القوانين صرامة لتنظيم التكنولوجيا من خلال قانون الذكاء الاصطناعي. يعتبر بعض رواد الأعمال في مجال الذكاء الاصطناعي أن قوانين الاتحاد الأوروبي زيادة في التنظيم قد تعرقل الابتكار، مما دفع ببعض الدول مثل كندا والإمارات العربية المتحدة لمحاولة جذب بعض أكثر شركات التكنولوجيا الرائدة في أوروبا للانتقال.
حتى الآن، كانت المملكة المتحدة تفوض المسؤولية للجهات التنظيمية القائمة لتوضيح أي تشريعات حالية تنطبق على الذكاء الاصطناعي. طلب من هذه الجهات أن تقدم ورقات بحلول نهاية هذا الشهر توضح كيف تنوي تنظيم الذكاء الاصطناعي في مجالاتها. تنظر لجنة الإعلام Ofcom، التي نشرت نهجها، في كيفية تغطية الذكاء الاصطناعي الإنشائي بموجب قانون السلامة عبر الإنترنت، الذي أقر في أكتوبر، لحماية الأطفال والبالغين على الإنترنت.