منتقدو الذكاء الاصطناعي يخسرون جولة… هل يربحون معركة «إنقاذ البشرية»؟
[ad_1]
خسر منظمو رسالة مفتوحة رفيعة المستوى تقدموا بها في شهر مارس (آذار) الماضي دعت إلى «وقفة» في العمل على الذكاء الاصطناعي المتقدم، جولة، لكنهم قد يفوزون في معركة طويلة المدى لإقناع العالم بإبطاء الذكاء الاصطناعي، وفقاً لشبكة «أكسيوس».
وبعد مرور 6 أشهر تقريباً على خطاب «معهد مستقبل الحياة» (the Future of Life Institute) الذي وقّعه إيلون ماسك وستيف وزنياك وأكثر من 1000 آخرين، والذي دعا إلى التوقف عن استخدام الذكاء الاصطناعي المتقدم لمدة 6 أشهر، لا يزال العمل يمضي قدماً. لكن الجدل الضخم الذي أعقب ذلك أدى إلى تعميق القلق العام تجاه هذه التكنولوجيا.
ساعدت الرسالة في تطبيع التعبير عن مخاوف الذكاء الاصطناعي العميقة. وبدأ الناخبون في التعبير بشكل متكرر عن قلقهم لمنظمي استطلاعات الرأي، وقام البيت الأبيض بتعبئة المديرين التنفيذيين للتكنولوجيا لتقديم التزامات السلامة، وتسابق المنظمون الأجانب من أوروبا إلى الصين لإنهاء لوائح الذكاء الاصطناعي.
ماذا بين السطور؟
في الأشهر الأخيرة، ركزت محادثة الذكاء الاصطناعي في جميع أنحاء العالم بشكل مكثف على المخاطر الاجتماعية والسياسية والاقتصادية المرتبطة بالذكاء الاصطناعي التوليدي، وكان الناخبون صريحين في إخبار منظمي الاستطلاعات عن مخاوفهم بشأن الذكاء الاصطناعي، وفقاً لـ«أكسيوس».
وتجمع الحكومة البريطانية نخبة من المفكرين العميقين في مجال سلامة الذكاء الاصطناعي في قمة عالمية يومي 1 و2 نوفمبر (تشرين الثاني). وقال نائب رئيس الوزراء البريطاني أوليفر دودن، في مؤتمر عقد بواشنطن بعد ظهر الخميس، إن الحدث «يهدف بشكل خاص إلى الذكاء الاصطناعي الحدودي».
وعادةً ما تستخدم «OpenAI» و«ميتا» والمنظمون مصطلح «الذكاء الاصطناعي الحدودي» للتمييز بين نماذج الذكاء الاصطناعي الأكبر والأكثر خطورة من التقنيات الأقل قدرةً.
وقال دودن: «لا يمكنك أبداً تغيير العالم في قمة واحدة، ولكن يمكنك اتخاذ خطوة إلى الأمام وإنشاء إطار مؤسسي لسلامة الذكاء الاصطناعي».
في هذا الإطار، أوضح أنتوني أغيري، المدير التنفيذي لمعهد «مستقبل الحياة»، الذي نظم رسالة «الإيقاف المؤقت»، لموقع «أكسيوس» أنه «متفائل جداً» بأن عملية المملكة المتحدة هي الآن أفضل رهان «لتباطؤ» تطوير الذكاء الاصطناعي وإعادة صياغة دقيقة لهدفه الأصلي في «التوقف لمدة 6 أشهر».
ويعتقد أغيري أنه من «المهم للغاية» أن تلعب الصين دوراً رائداً في قمة المملكة المتحدة.
ومع اعترافه بآثار المراقبة المترتبة على تنظيم الذكاء الاصطناعي من قبل بكين، أشار أغيري إلى أن عملية موافقة الصين على منتجات النماذج الأساسية مثل روبوتات الدردشة هي دليل على أن الحكومات يمكنها إبطاء إطلاق الذكاء الاصطناعي إذا أرادت ذلك.
وقال: «إن التسرع والاندفاع نحو الاضطراب الأساسي ليسا بالضرورة سباقاً تريد الفوز فيه. عامة الناس لا يريدون التقنيات الهاربة».
ورفض أغيري التزامات السلامة الطوعية التي ينظمها البيت الأبيض باعتبارها «لا ترقى إلى مستوى المهمة»، لكنه أعرب عن أمله في أن يتم إقرار التشريع الأميركي في عام 2024.
من جهته، رأى ريد هوفمان المؤسس المشارك لشركة «Inflection AI»، في حديث لـ«أكسيوس»، أنه مهما كان الاهتمام العام الذي قد أثارته الرسالة، فقد قوض المؤلفون مصداقيتهم مع مجتمع مطوري الذكاء الاصطناعي، وهو ما سيحتاجون إليه لتحقيق أهدافهم.
وقال هوفمان، إن مؤلفي الرسالة كانوا «يشيرون إلى الفضيلة ويزعمون أنهم وحدهم الذين يهتمون حقاً بالإنسانية. وهذا يضر بالقضية».
ووصفت الرسالة الأصلية «سباقاً خطيراً لنماذج الصندوق الأسود الأكبر حجماً، التي لا يمكن التنبؤ بها»، وحثت مختبرات الذكاء الاصطناعي على وضع حد لـ«جي بي تي 4» الذي تم إصداره مؤخراً، في إشارة إلى أن الذكاء الاصطناعي قد يدمر البشرية يوماً ما.
Source link