رئيسي عمل الرئيس التنفيذي للأنثروبيك داريو أمودي يناقش الذكاء الاصطناعي الدستوري

الرئيس التنفيذي للأنثروبيك داريو أمودي يناقش الذكاء الاصطناعي الدستوري

ما الفيلم الذي يجب رؤيته؟
 
  الجدار- E
هل من الممكن تعليم القيم الإنسانية للروبوتات؟ جايسون ليونج / أنسبلاش

في أواخر عام 2020 ، قرر داريو أمودي ترك دوره كمهندس في شركة OpenAI. أراد أن يبدأ شركته الخاصة ، بهدف بناء A.I. أنظمة ليست قوية وذكية فحسب ، بل تتماشى أيضًا مع القيم الإنسانية. شعر أمودي ، الذي قاد تطوير GPT-2 و GPT-3 ، السلائف لنموذج اللغة الكبير الذي يدعم ChatGPT اليوم ، بأن الإنجازات الأخيرة في القوة الحسابية وتقنيات التدريب لم تجعل الذكاء الاصطناعي. أنظمة أكثر أمانًا. لتحقيق ذلك ، كان يعتقد أن هناك حاجة إلى طريقة مختلفة.



في غضون عامين فقط ، جمعت شركة 'أنثروبيك' التابعة لشركة 'أمودي' 1.5 مليار دولار أمريكي من التمويل وكانت آخرها بقيمة 4 مليارات دولار ، مما يجعلها من بين أعلى قيمة A.I. الشركات الناشئة فى العالم. منتجها الرئيسي هو Claude ، وهو A.I شبيه بـ ChatGPT. تم إطلاق chatbot في يناير. في وقت سابق من هذا الشهر ، أصدرت Anthropic كلود 2 ، وهو إصدار أحدث يتميز باستجابات أطول مع تفكير أكثر دقة.








من يلعب الماندو في الماندالوريان

لماذا نحتاج الذكاء الاصطناعي الآمن؟ عارضات ازياء

يحب Amodei تشبيه الصواريخ عند مناقشة التطورات في نماذج اللغة: البيانات والقوة الحسابية هي الوقود والمحرك ، ومسألة السلامة مثل توجيه مركبة فضائية. يمكن للمحرك القوي والكثير من الوقود إطلاق مركبة فضائية كبيرة في الفضاء ، لكنهما لا يفعلان الكثير لتوجيه السفينة في الاتجاه الصحيح. نفس المنطق ينطبق على تدريب A.I. الأنظمة.



'إذا قمت بتدريب نموذج من مجموعة كبيرة من النصوص ، فستحصل على ما قد تصفه بأنه هذا الشيء الذكي للغاية والمطلوب جدًا والذي لا شكل له ، والذي ليس له رؤية معينة للعالم ، ولا توجد أسباب معينة تجعله يقول شيئًا واحدًا بدلاً من قال أمودي خلال محادثة على النار في قمة التقدم الأطلنطي في شيكاغو أمس (13 يوليو).

وجود A.I. ستزداد أهمية الأنظمة التي تفهم القيم الإنسانية مع نمو مخاطر التكنولوجيا جنبًا إلى جنب مع قدراتها.






يشعر مطورو ومستخدمي ChatGPT والأدوات المماثلة بالقلق بالفعل بشأن قدرة روبوتات المحادثة على توليد إجابات غير دقيقة أو شائنة في بعض الأحيان. لكن في غضون سنوات قليلة ، أ. قد لا تصبح الأنظمة ذكية بما يكفي لإنتاج قصص كاذبة أكثر إقناعًا فحسب ، بل قد تصبح أيضًا قادرة على اختلاق الأشياء في مجالات جادة ، مثل العلوم والبيولوجيا.



'لقد وصلنا إلى نقطة حيث ، في غضون عامين إلى ثلاثة أعوام ، ربما تكون النماذج قادرة على القيام بأشياء إبداعية في مجالات واسعة من العلوم والهندسة. وقال أمودي: 'يمكن أن تكون إساءة استخدام علم الأحياء أو مواد نووية مقيدة'. 'نحن بحاجة ماسة إلى التطلع إلى الأمام والتصدي لهذه المخاطر.'

أنثروبيك 'الذكاء الاصطناعي الدستوري' طريقة

أ. غالبًا ما توصف بأنها تقنية 'الصندوق الأسود' حيث لا أحد يعرف بالضبط كيف تعمل. لكن أنثروبيك تحاول بناء ذكاء اصطناعي. الأنظمة التي يمكن للبشر فهمها والتحكم فيها. نهجها هو ما يسميه Amodei الدستوري A.I.

كيف تجد اسم رقم الهاتف مجانا

على عكس أسلوب التدريب المتوافق مع معايير الصناعة ، والذي يتضمن تدخلًا بشريًا لتحديد المخرجات الضارة من روبوتات المحادثة وتصنيفها من أجل تحسينها ، فإن الذكاء الاصطناعي الدستوري يركز على نماذج التدريب من خلال تحسين الذات. ومع ذلك ، تتطلب هذه الطريقة إشرافًا بشريًا في البداية لتوفير 'دستور' أو مجموعة من القيم المحددة للذكاء الاصطناعي. نماذج لمتابعة.

قانون شارع السمسم والنظام

يتألف 'دستور' أنثروبيك من المبادئ المقبولة عالميًا من الوثائق المعمول بها مثل إعلان الأمم المتحدة لحقوق الإنسان وشروط الخدمة من مختلف شركات التكنولوجيا.

وصف أمودي طريقة تدريب أنثروبيك على هذا النحو ، 'نحن نأخذ هذه المبادئ ونطلب من الروبوت أن يفعل كل ما سيفعله استجابة للمبادئ. ثم نأخذ نسخة أخرى من الروبوت للتحقق مما إذا كان ما فعله الروبوت الأول يتوافق مع المبادئ. إذا لم يكن كذلك ، فلنعطيه ملاحظات سلبية. لذا فإن الروبوت يقوم بتدريب الروبوت في هذه الحلقة ليكون أكثر من متوافق مع المبادئ '.

'نعتقد أن هذه طريقة أكثر شفافية وفعالية لتشكيل قيم الذكاء الاصطناعي. قال أمودي.

ومع ذلك ، هناك عيب أساسي في A. النماذج هي أنها لن تكون مثالية أبدًا. قال أمودي: 'إنها تشبه إلى حد ما القيادة الذاتية'. 'لن تكون قادرًا على ضمان أن هذه السيارة لن تتحطم أبدًا. ما آمل أن نكون قادرين على قوله هو أن 'هذه السيارة تتعطل أقل بكثير من اصطدام شخص يقود السيارة ، وتصبح أكثر أمانًا في كل مرة يقودها.'

المقالات التي قد تعجبك :