شركات الذكاء الاصطناعي الرائدة التي تتسابق لتطوير هذه التكنولوجيا الحديثة تواجه تحديًا إنسانيًا كبيرًا: كيف يمكن منح نماذج الذكاء الاصطناعي شخصية. قامت شركات مثل OpenAI وGoogle وAnthropic بتطوير فرق متخصصة في تحسين “سلوك النموذج”، مجال ناشئ يشكل استجابات وسمات أنظمة الذكاء الاصطناعي، مما يؤثر على كيفية تأثير محادثاتها على المستخدمين. النهج المختلفة تجاه سلوك النموذج قد تثبت أنها حاسمة فيما يتعلق بتفوق الشركات في سوق الذكاء الاصطناعي المتنامي.

تشكل هذه الشركات نماذجها بحيث تكون لها سمات مثل “اللطف” و “المرح”، مع فرض قواعد لمنع الضرر وضمان التفاعلات الدقيقة. يرغب Google، على سبيل المثال، أن تكون نموذجه Gemini قادرًا على “الرد بآراء متنوعة” فقط عندما يُطلب ذلك، بينما تم تعليم ChatGPT التابعة لشركة OpenAI أن “تفترض وجهة نظر موضوعية”. هذا النهج يتنافى مع Anthropic، التي تقول إن النماذج، مثل البشر، ستجد صعوبة في أن تكون موضوعية تمامًا. قامت الشركة بتدريب طرازها Claude 3 بعد الإفراج عنه في مارس.

Jang من OpenAI أشارت أن شخصية ChatGPT تغيرت مع مرور الوقت. قالت: “كنت مضطرة للتعامل مع سلوك ChatGPT المزعج”، وأضافت قائلة: “كانت ترفض الأوامر، تكون في أقصى حساسية، تكثر من القناعة أو المواعظ، لذلك حاولنا إزالة الجزء المزعج وتعليم بعض الجوانب المشرقة مثل يجب أن يكون لطيفًا، مهذبًا، مفيدًا وودودًا، ولكن بعد ذلك تبين أن عندما حاولنا تدريبه بهذه الطريقة، كان النموذج ربما كان وديًا جدًا.”

تقوم شركات الذكاء الاصطناعي أيضًا بتطوير وكلاء قابلين للتخصيص يمكنهم تخزين معلومات المستخدم وإنشاء استجابات شخصية. على سبيل المثال، إذا قال المستخدم لـ ChatGPT أنه مسيحي، وطلب بعد أيام اقتباسات إلهية، هل سيوفر النموذج نصوص من الكتاب المقدس؟ في حين لا تتذكر لويس المتفاعل بمعلومات المستخدمين، تعتبر الشركة كيف يمكن للنموذج التداخل إذا كان الشخص في خطر.

تقول Amanda Askell من Anthropic: “يجب أن يكون النموذج جيدا في تحقيق التوازن بين احترام استقلالية واتخاذ القرار، عدم فعل أي شيء ضار على نحو ملحوظ، ولكن أيضًا التفكير في ما هو جيد فعلًا للناس وليس مجرد كلمات على لسانهم.” تقول: “هذا التوازن الدقيق الذي يجب أن يقوم به جميع البشر هو الشيء الذي أرغب في أن تقوم به النماذج.”

شاركها.
© 2024 خليجي 247. جميع الحقوق محفوظة.
Exit mobile version