فتح Digest محرر مجانًا
تختار رولا خالاف ، محررة FT ، قصصها المفضلة في هذه النشرة الإخبارية الأسبوعية.
ستبدأ Microsoft في ترتيب نماذج الذكاء الاصطناعي بناءً على أدائها على السلامة ، حيث تسعى مجموعة البرمجيات إلى بناء الثقة مع عملاء السحابة لأنها تبيع عروض الذكاء الاصطناعي من أمثال Openai و Elon Musk's Xai.
وقالت سارة بيرد ، رئيسة شركة Microsoft المسؤولة ، إن الشركة ستضيف قريبًا فئة “أمان” إلى “المتصدرين النموذجيين” ، وهي ميزة أطلقتها للمطورين هذا الشهر لتصنيف التكرارات من مجموعة من مقدمي الخدمات بما في ذلك Deepseek في الصين و France Misstral.
من المتوقع أن تؤثر اللوحة المتصدرين ، التي يمكن الوصول إليها من قبل عشرات الآلاف من العملاء الذين يستخدمون منصة Azure Foundry Developer ، التي يتم شراؤها من خلال Microsoft.
تصنف Microsoft حاليًا ثلاث مقاييس: الجودة والتكلفة والإنتاجية ، وهي مدى سرعة إنشاء النموذج. أخبر بيرد صحيفة “فاينانشال تايمز” أن تصنيف السلامة الجديد سيضمن “أن يتمكن الأشخاص من التسوق مباشرة وفهم” قدرات نماذج الذكاء الاصطناعى أثناء تقررهم أيها الشراء.
يأتي قرار تضمين معايير السلامة في الوقت الذي يتصارع فيه عملاء Microsoft مع المخاطر المحتملة التي تشكلها نماذج جديدة من الذكاء الاصطناعى إلى حماية البيانات وحماية الخصوصية ، لا سيما عند نشرها كـ “عوامل” مستقلة يمكنها العمل دون إشراف بشري.
سيستند مقياس السلامة الجديد من Microsoft إلى معايير توكسين الخاصة به ، والذي يقيس خطاب الكراهية الضمني ، ومركز الأسلحة الخاصة بأسلحة AI Safety of Massy Presy. يقيم الأخير ما إذا كان يمكن استخدام نموذج لأغراض ضارة مثل بناء سلاح كيميائي حيوي.
تمكن التصنيفات من المستخدمين من الوصول إلى مقاييس موضوعية عند الاختيار من فهرس من أكثر من 1900 نموذج من الذكاء الاصطناعي ، حتى يتمكنوا من اتخاذ خيار مستنير لاستخدامه.
وقال كاسي كوزيركوف ، مستشار وكبير القرار السابق في جوجل: “يمكن لوحات قادة السلامة أن تساعد الشركات على قطع الضوضاء وتضيق الخيارات”. “التحدي الحقيقي هو فهم المقايضات: الأداء الأعلى بأي تكلفة؟ انخفاض التكلفة في أي خطر؟”
إلى جانب Amazon و Google ، تعتبر المجموعة التي تتخذ من سياتل مقراً لها واحدة من أكبر “فرط الشؤون” التي تهيمن على سوق السحابة معًا.
تقوم Microsoft أيضًا بوضع نفسها كمنصة لاأدري لـ AI التوليدي ، حيث توقيع صفقات لبيع النماذج من قبل XAI والأنثروبور ، منافسين لبدء Openai الذي تم دعمه بحوالي 14 مليار دولار في الاستثمار.
في الشهر الماضي ، قالت Microsoft إنها ستبدأ في تقديم عائلة من عائلة Xai Grok من النماذج بموجب نفس المصطلحات التجارية مثل Openai.
جاءت هذه الخطوة على الرغم من أن إصدارًا من Grok يثير التنبيه عندما أدى “التعديل غير المصرح به” من رمزها إلى الرجوع مرارًا وتكرارًا إلى “الإبادة الجماعية البيضاء” في جنوب إفريقيا عند الاستجابة للاستفسارات على موقع التواصل الاجتماعي X. قال Xai إنها قدمت سياسة مراقبة جديدة لتجنب الحوادث المستقبلية.
وقال بيرد: “تأتي النماذج في منصة ، وهناك درجة من المراجعة الداخلية ، ثم الأمر متروك للعميل لاستخدام المعايير لمعرفة ذلك”.
لا يوجد معيار عالمي لاختبار سلامة الذكاء الاصطناعي ، لكن قانون الذكاء الاصطناعي للاتحاد الأوروبي سيدخل القوة في وقت لاحق من هذا العام ويجبر الشركات على إجراء اختبارات السلامة.
يكرس بعض بناة النماذج بما في ذلك Openai وقتًا أقل وأموالًا لتحديد المخاطر وتخفيفها ، وقد تم الإبلاغ عن FT سابقًا عن العديد من الأشخاص على دراية بعمليات السلامة في بدء التشغيل. وقالت الشركة الناشئة إنها حددت الكفاءة دون المساس بالسلامة.
رفض بيرد التعليق على اختبار السلامة في Openai ، لكنه قال إنه من المستحيل شحن نموذج عالي الجودة دون استثمار “مبلغ ضخم” في التقييم وأن العمليات كانت آلية.
أطلقت Microsoft في أبريل أيضًا “AI Ai Reading Agent” يقوم بأتمتة عملية اختبار Programs Computer من خلال شن هجمات لتحديد نقاط الضعف. قال بيرد: “أنت تحدد المخاطر فقط ، تحدد صعوبة الهجوم … ثم الأمر خارج مهاجمة نظامك”.
هناك مخاوف من أنه من دون إشراف كافٍ ، يمكن أن يتخذ وكلاء الذكاء الاصطناعي إجراءات غير مصرح بها يفتح المالكون حتى الالتزام.
وقال كوزيركوف: “المخاطرة هي أن مجالس الإقامة يمكن أن تهدأ صانعي القرار إلى إحساس زائف بالأمان”. “مقاييس السلامة هي نقطة انطلاق وليست ضوء أخضر.”