في هذا النشرة الأسبوعية، تختار رولا خلف، رئيس تحرير صحيفة Financial Times، قصصها المفضلة. يتخيل بعض العلماء والمطورون أن يصل الذكاء الاصطناعي في المستقبل إلى نقطة تحسن ذاتي سريع، ويمكنه التهرب من السيطرة البشرية، وإطلاق الفوضى على البشر من خلال هجمات إلكترونية أو حتى كوارث نووية. هذا هو قلق بعض العلماء والمطورين، وكان دافعًا لمشروع قانون السلامة الخاص بالذكاء الاصطناعي في كاليفورنيا، حيث توجد 32 من أكبر 50 شركة في العالم لتطوير الذكاء الاصطناعي فيها. ومع ذلك، رفض حاكم الولاية جافين نيوسوم هذا المشروع، وهو يُعتبر فوزًا كبيرًا للشركات التكنولوجية الكبيرة، وقراراً متهوراً بالنسبة لأمن الجمهور، وفرصة ضائعة لوضع معايير سلامة الذكاء الاصطناعي على الصعيد الوطني.
تحديد القواعد لحماية ضد الأضرار المحتملة لتقنية، خاصة وهي لا تزال قيد التطوير، هو توازن حساس. إذا كان المشروع صارمًا جدًا، فإنه يزيد من احتمال تقويم الابتكار نفسه من البداية، مما يعني أن المجتمع يفوت على الفوائد المحتملة أيضاً. وعلى الرغم من أن مشروع قانون كاليفورنيا تم تخفيفه بفعل تأثير تحركات قوة الضغط الكبيرة في وادي السيليكون، لا تزال هناك شكوك بشأن تأثيره على تطوير ونشر الذكاء الاصطناعي. أحد أهداف مشروع قانون كاليفورنيا كانت زيادة مسؤولية المطورين عن سوء استخدام نماذجهم. وكرغبة أن تكون هذه الخطوة محمودة، قد تحدث آثار جانبية. على سبيل المثال، من الصعب على المطورين معرفة مسبقًا كيف يمكن استخدام تقنيتهم. قد يتصالحون مع ذلك عبر التقليل من البحث. كما أن خبراء الذكاء الاصطناعي قلقون من أن بروتوكولات السلامة في المشروع – التي تضمنت ضرورة بناء “زر قتل” داخل النماذج التي تتجاوز حد معين – يمكن أن تثني عن تطوير واستخدام النماذج ذات المصدر المفتوح، حيث يقام فيها الكثير من الابتكار. وكان قلق آخر هو أن المشروع لم يستهدف على وجه التحديد أنظمة الذكاء الاصطناعي المستخدمة في بيئات عالية المخاطر، مثل البنى التحتية الحرجة، أو إذا استخدمت بيانات حساسة. فقد طبق معايير صارمة حتى على الوظائف الأساسية.
على الرغم من هذه القلق، يبدو قرار نيوسوم معقولًا. ومع ذلك، لا يعني ذلك أن يحصل شركات التكنولوجيا على فرصة مجانية. مع تسارع سباق الذكاء الاصطناعي، هناك قلق حقيقي من أن بناة النماذج يمكن أن يتجاهلوا نقاط الضعف. لذا فمن السليم الآن للمشرعين إعادة صياغة القواعد المقترحة وتوضيح التعبير غامض، لتحقيق توازن أفضل حول القلق من التأثير على الابتكار اليوم. أعلن نيوسوم شراكة واعدة مع خبراء لتطوير “حواجز عملية”. كما أن الجدير بالاستحسان أن الحاكم وقع مؤخرًا مشاريع قوانين تستهدف تنظيم المخاطر الحالية والواضحة المتعلقة بالذكاء الاصطناعي – بدلًا من تلك الافتراضية – بما في ذلك تلك المتعلقة بالفيديوهات المزيفة والمعلومات الخاطئة.
على الرغم من إشادة قيادة كاليفورنيا بتنظيم الذكاء الاصطناعي، فإنه سيكون أفضل إذا تم تحديد وتنفيذ قواعد السلامة على الصعيد الفيدرالي. ذلك سيوفر حماية عبر الولايات المتحدة، ويمنع تشكيل لفافة متنوعة من القوانين الولاية القادمة، ويسهل تجنب وضع ولاية الذهب – مركز الابتكار الأمريكي والعالمي – في موقف تنافسي عقر. في الواقع، على الرغم من أن جذب مستثمري ومواهب وادي السيليكون ما زال قويًا، إلا أن هناك خطرًا من أن تشكل التنظيمات الفرادى والصارمة جدًا للذكاء الاصطناعي يمكن أن تدفع تطوير النماذج في أماكن أخرى، مما يضعف نظام الذكاء الاصطناعي للولاية في العملية. في الوقت الحاضر، كاليفورنيا تفرض ضرائب عالية وهي الولاية الأكثر تنظيمًا في الولايات المتحدة. كما أن العقارات مكلفة أيضًا. قد غادرت بعض الشركات مثل شركة Palantir لتحليل البيانات الأمريكية وشركة السمسارة Charles Schwab الولاية مؤخرًا، وقامت بعض شركات التكنولوجيا بتقليص مساحة المكتب. إدارة القلق بشأن تطوير الذكاء الاصطناعي تتطلب فنًا في الحفاظ على الخير مع ضمان الحماية من الشر. لا ينبغي أن تُعامل التهديدات التكنولوجية لمجتمعاتنا بخفة، ولكن لا ينبغي أن نتخلى أيضًا عن تطوير الابتكار الذي يمكن أن يساعد في تشخيص الأمراض وتعجيل البحوث العلمية، وزيادة الإنتاجية. إنه يستحق بذل الجهد للحصول على النتيجة الصحيحة.