في عام 1946، قام جدّي بنشر قصة خيال علمي تحت اسم “موراي لينستر” بعنوان “عقل يُدعى جو”. في هذه القصة، يملك الجميع حاسوبًا (عقل) متصلا بشبكة عالمية تقوم بكل شيء من البنوك إلى الصحف ومكالمات الفيديو. يومًا ما، يبدأ أحد هذه العقول، جو، بإعطاء إجابات مفيدة لأي طلب في أي مكان على الشبكة: اختراع سام قابل للكشف، على سبيل المثال، أو اقتراح أفضل طريقة لسرقة بنك. ينتاب الذعر – “تحقق من دوائر الرقابة!” – حتى يبدأون في معرفة ما يجب فصله.

منذ فترة طويلة قد فكرنا في الحواسيب، فقد فكرنا في جعل “الذكاء الاصطناعي”، وتساءلنا عما سيعني ذلك. هناك نكتة قديمة تقول إن الذكاء الاصطناعي هو كل ما لا يعمل بعد، لأنه بمجرد أن يعمل فإنه مجرد برنامج. تقوم الآلات الحاسبة بعمليات رياضية خارقة، وتحتوي قواعد البيانات على ذاكرة خارقة، لكنها لا تستطيع فعل أي شيء آخر، ولا تفهم ما تقوم به، تمامًا كما لا يفهم غسالة الصحون الصحون. ومع ذلك، هناك شيء مختلف لدى البشر، وهكذا يحدث على مقياس معين لدى الكلاب والشمبانزي والأخطبوطات والكائنات الأخرى العديدة. يطلق عليه محققو الذكاء الاصطناعي “الذكاء العام”.

إذا كان بإمكاننا صنع الذكاء الاصطناعي العام، أو ما يُعرف بـ AGI، يجب أن يكون من الواضح أن هذا سيكون بنفس أهمية الحوسبة، أو الكهرباء أو ربما البخار. اليوم نطبع الدوائر المتكاملة، ولكن ماذا لو كنت تستطيع طباعة أدمغة رقمية على مستوى إنسان، أو أكثر من مستوى إنسان، بالمليارات؟ خلال الأقل، ستكون هذه تغييرًا هائلًا فيما يمكننا أتمتته، وكما أشار جدي وألف كاتب علمي آخر تقريبًا، قد يعني ذلك الكثير أكثر: لم يكن لدى أجهزة البخار آراء حول البشر.

كل بضعة عقود منذ عام 1946، كان هناك موجة من الحماس التي قد تكون قريبة (في عام 1970، ادعى رائد الذكاء الاصطناعي مارفين مينسكي أنه سيكون لدينا AGI على مستوى البشر خلال ثلاث إلى ثماني سنوات). التعلم العميق الذي بدأ منذ 18 شهرًا بدأ موجة أخرى من هذا القبيل. هذا الأسبوع، أعلنت OpenAI وميتا أنهما على وشك طرح نماذج جديدة قد تكون قادرة على التفكير والتخطيط. علماء الذكاء الاصطناعي الجادون الذين كانوا يعتقدون سابقًا أن AGI سيكون بعد عقود الآن يقترحون أنه قد يكون أقرب من ذلك بكثير.

من الجادون من يرون أن هناك خطر حقيقي من ظهور AGI بشكل حادث من الأبحاث الحالية وأن هذا قد يكون تهديدًا للبشرية. هؤلاء يطالبون باتخاذ إجراءات حكومية عاجلة. يأتي بعض هذا من الشركات الحريصة على النفس التي تبحث عن عقبات للتنافس (“هذا خطير للغاية ونحن نبنيه بأسرع ما يمكن، ولكن لا تدع أي شخص آخر يفعل ذلك”)، ولكن الكثير منها صادق. ومع ذلك، لكل خبير يعتقد أن AGI قد يكون قريبًا، هناك آخر لا يفعل. يوجد بعض الذين يعتقدون أن نماذج اللغة الكبيرة – LLMs – قد تصل إلى مستوى AGI، ويوجد آخرون يرون أنه ما زلنا بحاجة إلى عدد غير معروف من الاختراقات المزيدة غير المعروفة. والأهم من ذلك، فإنهم سيوافقون جميعًا على أننا فعليًا لا نعرف.

المشكلة هي أننا ليس لدينا نموذج نظري مترابط لما هو الذكاء العام حقًا، أو لماذا الأشخاص يكونون أفضل في ذلك من الكلاب. بالمثل، لا نعرف لماذا يبدو أن LLMs يعملون بشكل جيد للغاية، ولا نعرف إلى أي مدى يمكن تحسينها. لدينا العديد من النظريات لأجزاء من هذه القضايا، ولكن ليس لدينا المعلومات حول النظام كاملا. لا يمكننا أن نرسم الناس والحوار الصناعي GPT على الرسم البياني ونقول عندما ستصل إحداها إلى الأخرى.

فعلا، الذكاء الاصطناعي نفسه هو تجربة فكرية: أي نوع من AGI سنحصل عليه فعليًا؟ قد يتجاوز 100 مرة الذكاء البشري، أو قد يكون أسرع ولكن ليس أكثر ذكاءً. قد ننتج فقط AGI لا يزيد ذكاءه عن كلب. لا نعرف. هذا هو السبب في تحوّل جميع المحادثات حول AGI إلى مقارنات: إذا كان بإمكانك مقارنة هذا بالانشطار النووي فإنك تعرف ما يجب فعله. ولكن مرة أخرى، كنا لدينا نظرية عن الانشطار، وليس لدينا نظرية عنAGI. لذلك، المقارنة المفضّلة هي برنامج Apollo. كان لدينا نظرية للجاذبية، ونظرية لهندسة الصواريخ. كنا نعرف لماذا لا تنفجر الصواريخ، لماذا تصعد، وكم تحتاج للذهاب. نحن لا نمتلك مثيل لهنا. لا نعرف لماذا تعمل LLMs، مدى قدرتها على التحسين، ومدى الذي يجب أن تصل إليه. ومع ذلك، نحن نواصل جعلها أكبر، ويبدو أنها تقترب. هل ستصل؟ ربما!

ما هو إذن الموقف المفضل لك تجاه المخاطر الحقيقية ولكن المجهولة؟ هل تقلق، أم تستسلم؟ أي التجارب الفكرية تفضل؟ نفترض، على الرغم من ذلك، أن تقرر أن خبراء الكوارث على حق: ماذا يمكنك أن تفعل؟ التكنولوجيا علنية بشكل مبدئي. النماذج de source منتشرة. في الوقت الحالي، LLMs تحتاج إلى الكثير من الرقائق المكلفة (بيعت نفيديا 47.5 مليار دولار في السنة المالية الماضية ولا يمكن أن تلبي الطلب)، ولكن خلال عقد، ستصبح النماذج أكثر كفاءة وستنتشر الرقائق في كل مكان. في النهاية، لا يمكنك حظر الرياضيات. ستحدث على أي حال. ومع ذلك، فعادة، سيتبع هذا الحماس الأخير كل الدمجات الأخرى من الذكاء الاصطناعي، ويصبح “فقط” أكثر برامج وأتمتة. دائمًا تؤدى الأتمتة إلى الألم الاحتكاكي، راجع حادثة مكتب البريد في المملكة المتحدة التي تذكرنا بأنك لا تحتاج إلى AGI من أجل تدمير حياة الناس. ستسبب LLMs المزيد من الألم والفضائح أكثر، ولكن الحياة ستستمر. على الأقل، هذه هي الإجابة التي أفضل.

شاركها.
© 2024 خليجي 247. جميع الحقوق محفوظة.
Exit mobile version