هناك روبوت محادثة جديد آخر يعمل بالذكاء الاصطناعي يدخل المجال المزدحم بالفعل، ولكن يبدو أن هذا الروبوت قادر على القيام بما لا يستطيع معظم الروبوتات القيام به – التعلم من أخطائه.
في منشور بتاريخ 5 سبتمبر على X، أعلن الرئيس التنفيذي لشركة HyperWrite AI، مات شومر، عن تطوير “Reflection 70B”، مدعيًا أنه “أفضل نموذج مفتوح المصدر في العالم”.
وأضاف أن الذكاء الاصطناعي الجديد تم تدريبه باستخدام “Reflection-Tuning”، وهي تقنية تم تطويرها لتمكين طلاب الماجستير في القانون من تصحيح أخطائهم بأنفسهم.
قال إن Reflection Llama-3.1 70B يمكنه “التفوق” حتى على أفضل النماذج المغلقة المصدر مثل Claude 3.5 Sonnet من Anthropic وGPT-4o من OpenAI في العديد من المعايير. Llama 3.1 هو الذكاء الاصطناعي مفتوح المصدر من Meta والذي تم إطلاقه في يوليو.
وقال إن نماذج الذكاء الاصطناعي الحالية قد تعاني من الهلوسة في كثير من الأحيان، لكن الضبط الانعكاسي يمكّنها من التعرف على أخطائها وتصحيحها قبل الالتزام بالإجابة.
“يميل طلاب الماجستير في القانون الحاليون إلى الهلوسة، ولا يستطيعون التعرف عليها عندما يفعلون ذلك.”
هلاوس الذكاء الاصطناعي هي ظاهرة تحدث عندما يدرك روبوت الذكاء الاصطناعي أنماطًا أو أشياء غير موجودة أو غير محسوسة للمراقبين البشريين، مما يؤدي إلى إنشاء مخرجات غير دقيقة.
ضبط الانعكاس هو تقنية تستخدم لتحسين نماذج الذكاء الاصطناعي من خلال جعلها تحلل وتتعلم من مخرجاتها الخاصة.
يمكن إرسال استجابات الذكاء الاصطناعي إلى الذكاء الاصطناعي حيث يُطلب منه تقييم استجاباته الخاصة، وتحديد نقاط القوة والضعف ومجالات التحسين، على سبيل المثال.
يتم تكرار العملية عدة مرات، مما يسمح للذكاء الاصطناعي بتحسين قدراته بشكل مستمر بهدف جعله أكثر وعياً بمخرجاته وأفضل في نقد وتحسين أدائه.
وأضاف شومر أنه “مع التوجيه الصحيح، فإنه يصبح وحشًا مطلقًا للعديد من حالات الاستخدام”، مقدمًا رابطًا تجريبيًا للنموذج الجديد.
متعلق ب: أمازون تخطط لتجديد أليكسا باستخدام نموذج Claude AI من Anthropic: تقرير
أصدرت شركة OpenAI المدعومة من Microsoft ورقة بحثية في عام 2023 تتضمن أفكارًا حول كيفية المساعدة في منع هلوسات الذكاء الاصطناعي.
كانت إحدى الأفكار هي “الإشراف على العملية”، والتي تتضمن تدريب نماذج الذكاء الاصطناعي على مكافأة نفسها على كل خطوة فردية صحيحة من التفكير عندما تصل إلى إجابة، بدلاً من مجرد مكافأة الاستنتاج النهائي الصحيح.
“إن اكتشاف الأخطاء المنطقية أو الهلوسات في النموذج والتخفيف منها يعد خطوة بالغة الأهمية نحو بناء الذكاء الاصطناعي العام المتوافق [artificial general intelligence]وقال كارل كوبي، الباحث في شركة OpenAI، لشبكة CNBC في ذلك الوقت:
مجلة: خطة طائرات بدون طيار تعمل بالذكاء الاصطناعي لتايوان، وطلاب الماجستير في القانون أغبياء للغاية لدرجة أنهم لا يستطيعون تدمير البشرية: AI Eye