مجموعة من الخبراء يريدون كبح تطوير الذكاء الاصطناعي: بيل غيتس لا يوافق

تمت الكتابة من قبل Guillaume
تاريخ النشر: {{ dayjs(1680883202*1000).local().format("L").toString()}}
تابعنا
هذه المقالة هي ترجمة تلقائية

قصة ذكاء اصطناعي يتعلم بشكل أسرع وأسرع وهي ليست خيالا علميا.

رسالة مفتوحة اتخذت أيضا شكل عريضة ، تم نشر الرسالة الموقعة من Elon Musk (الرئيس التنفيذي لشركة SpaceX و Tesla و Twitter) وستيف وزنياك (المؤسس المشارك لشركة Apple) على موقع futureoflife.org. انضم عشرات الباحثين وغيرهم من المتخصصين في التقدم التكنولوجي وكذلك الذكاء الاصطناعي إلى الاثنين المذكورين أعلاه للدعوة إلى التوقف مؤقتا في البحث الذكاء الاصطناعي. من خلال هذه الرسالة ، يرغب الموقعون في التحذير من التقدم الأخير للذكاء الاصطناعي والعواقب الوخيمة التي يمكن أن يكون لها منافسة شرسة في هذا المجال. لم يظهر الذكاء الاصطناعي التوليدي بعد جزءا صغيرا جدا من إمكاناته ، كما أن وصول برامج قوية مثل ChatGPT يدفع معظم منافسي OpenAI إلى تسريع عملهم.

ومع ذلك ، يؤكد الموقعون على الرسالة أن هذه المنافسة الجامحة ليس لها مزايا فقط. على وجه الخصوص ، وضعوا إصبعهم على القضايا الأمنية. في الواقع ، في حين أن العمل في هذا المجال حساس بشكل متزايد ، فإن مسألة السرية المحيطة بالبحوث تثار. بدون معلومات عن العمل الذي يتم تنفيذه في أحدهما أو الآخر ، لا يستطيع المجتمع ككل حماية نفسه من الأخطار المحتملة أو الانجراف أو الكوارث. ونقلت صحيفة كلوب عن الموقعين التساؤل: " هل يجب أن نسمح للآلات بإغراق قنواتنا الإعلامية بالدعاية والكذب؟ هل يجب علينا أتمتة جميع الوظائف ، بما في ذلك تلك المجزية؟ هل يجب أن نطور عقولا غير بشرية يمكن أن تكون يوما ما أكثر عددا وذكاء وأكثر عفا عليها الزمن وتحل محلنا؟ هل يجب أن نخاطر بفقدان السيطرة على حضارتنا؟ »

لذلك فإن الغرض من هذه الرسالة المفتوحة هو الدعوة إلى نوع من "التوقف". يريد الموقعون وقف تطوير الذكاء الاصطناعي الأكثر كفاءة لمدة ستة أشهر على الأقل. فترة من الوقت لتقييم المخاطر ، لتحديد ما إذا كان التقدم المحرز في هذا المجال إيجابيا حقا وما إذا كانت المخاطر قابلة للإدارة. اعترف سام ألتمان نفسه - وهو رئيس شركة OpenAI - بأنه " خائف قليلا " من التقدم المحرز والمخاطر التي تتعرض لها البشرية إذا تم استخدام الذكاء الاصطناعي ل ChatGPT في " معلومات مضللة أو هجمات إلكترونية واسعة النطاق ".

ومع ذلك ، لم يرغب سام ألتمان في التوقيع على هذه الرسالة المفتوحة. وبهذا المعنى ، انضم إليه أيضا أحد أشهر الأسماء في عالم التكنولوجيا ، بيل جيتس ، المؤسس المشارك لشركة Microsoft ورئيس الشركة الأمريكية لسنوات عديدة. لفترة طويلة ، كان الأخير أحد أكثر المدافعين المتحمسين عن تقدم الذكاء الاصطناعي وهو أكثر من متحمس لمتابعة التطورات الأخيرة في هذا المجال. على عكس ما يقال في هذه الرسالة المفتوحة ، يعتبر بيل جيتس أن التوقف لمدة ستة أشهر على الأقل المذكورة ليس بأي حال من الأحوال حلا للمشاكل التي يطرحها صعود الذكاء الاصطناعي التوليدي. وفي مقابلة مع رويترز، قال إنه لا يعتقد أن " مطالبة مجموعة معينة بأخذ قسط من الراحة يحل المشاكل "، مضيفا: " لا أفهم حقا من يعتقدون أنه يمكن أن يتوقف، أو ما إذا كانت جميع دول العالم ستقبل، أو لماذا ستفعل ذلك".

وبقيامه بذلك، يلقي بيل جيتس باللوم على مشكلة جدوى هذا التوقف المؤقت. قرر من وكيف؟ تطبق على جميع دول العالم؟ إلى جميع الشركات الخاصة؟ يدرك المؤسس المشارك لشركة Microsoft المشكلات التي يطرحها تطوير الذكاء الاصطناعي ويفهم المخاوف التي يمكن أن يولدها ذلك. ومع ذلك ، يعتقد أن هناك " فوائد كبيرة لهذه الأشياء " ويتحدث عن " تحديد المناطق الصعبة " بدلا من أخذ استراحة لمدة ستة أشهر. يعتقد بيل جيتس أن الذكاء الاصطناعي ليس أقل من أعظم ابتكار كمبيوتر في الأربعين عاما الماضية ، وهو ابتكار يجب أن يكون قادرا على المساعدة في إيجاد حلول لجميع مشاكل البشرية. فيما يتعلق بهذه النقطة الأخيرة ، لا يسعنا إلا أن نرى في بيل غيتس أحد أتباع الحلول ، ولكن يجب الاعتراف بأنه من الصعب تخيل قبول الحكومات الصينية أو الهندية أو الروسية وقفة قادمة من مفكرين مقيمين في الولايات المتحدة أو أوروبا.