الأخبارالبيتكوين

أطلق إيليا سوتسكيفر، كبير العلماء السابق في OpenAI، مبادرة SSI للتركيز على سلامة الذكاء الاصطناعي

انضم إيليا سوتسكيفر، المؤسس المشارك وكبير العلماء السابق في OpenAI، والمهندس السابق في OpenAI دانييل ليفي إلى دانييل جروس، المستثمر والشريك السابق في مسرع الشركات الناشئة Y Combinator، لإنشاء شركة Safe Superintelligence, Inc. (SSI). هدف الشركة الجديدة ومنتجها واضح من اسمها.

SSI هي شركة أمريكية ولها مكاتب في بالو ألتو وتل أبيب. قال المؤسسون الثلاثة في إعلان عبر الإنترنت يوم ١٩ يونيو: إنها ستعمل على تطوير الذكاء الاصطناعي (AI) من خلال تطوير السلامة والقدرات جنبًا إلى جنب. وأضافوا:

“تركيزنا الفردي يعني عدم تشتيت الانتباه عن طريق النفقات الإدارية العامة أو دورات المنتج، ونموذج أعمالنا يعني أن السلامة والأمن والتقدم كلها معزولة عن الضغوط التجارية قصيرة المدى.”

كان Sustkever وGross قلقين بالفعل بشأن سلامة الذكاء الاصطناعي

غادر سوتسكيفر شركة OpenAI في 14 مايو. وقد شارك في إقالة الرئيس التنفيذي سام ألتمان ولعب دورًا غامضًا في الشركة بعد تنحيه عن مجلس الإدارة بعد عودة ألتمان. كان دانييل ليفي من بين الباحثين الذين تركوا OpenAI بعد أيام قليلة من مغادرة سوتسكيفر.

ذات صلة: OpenAI يجعل ChatGPT “أقل تفصيلاً”، مما يؤدي إلى عدم وضوح التمييز بين الكاتب والذكاء الاصطناعي

كان Sutskever وJan Leike قائدين لفريق OpenAI’s Superalignment الذي تم إنشاؤه في يوليو 2023 للنظر في كيفية “توجيه أنظمة الذكاء الاصطناعي والتحكم فيها بشكل أكثر ذكاءً منا”. ويشار إلى هذه الأنظمة باسم الذكاء العام الاصطناعي (AGI). خصصت OpenAI 20% من قدرتها الحاسوبية لفريق Superalignment في وقت إنشائها.

غادر Leike أيضًا OpenAI في مايو وهو الآن رئيس فريق في شركة Anthropic الناشئة للذكاء الاصطناعي المدعومة من أمازون. دافعت شركة OpenAI عن احتياطاتها المتعلقة بالسلامة في منشور X طويل لرئيس الشركة جريج بروكمان، لكنها قامت بحل فريق Superalignment بعد رحيل باحثيها في شهر مايو.

ويشعر كبار الشخصيات التقنية الأخرى بالقلق أيضًا

يعد باحثو OpenAI السابقون من بين العديد من العلماء المهتمين بالاتجاه المستقبلي للذكاء الاصطناعي. وصف المؤسس المشارك لـ Ethereum، فيتاليك بوتيرتين، الذكاء الاصطناعي العام بأنه “محفوف بالمخاطر” في خضم معدل دوران الموظفين في OpenAI. وأضاف، مع ذلك، أن “مثل هذه النماذج هي أيضًا أقل بكثير من حيث خطر الهلاك مقارنة بجنون العظمة في الشركات والجيوش”.

المصدر: ايليا سوتسكيفر

كان الرئيس التنفيذي لشركة Tesla، إيلون ماسك، الذي كان من مؤيدي OpenAI سابقًا، والمؤسس المشارك لشركة Apple، ستيف وزنياك، من بين أكثر من 2600 من قادة التكنولوجيا والباحثين الذين حثوا على إيقاف تدريب أنظمة الذكاء الاصطناعي مؤقتًا لمدة ستة أشهر بينما تفكر البشرية في “الخطر العميق” الذي يمثلونه.

وأشار إعلان مباحث أمن الدولة إلى أن الشركة تقوم بتعيين مهندسين وباحثين.

المجلة: كيفية الحصول على تنبؤات أفضل للعملات المشفرة من ChatGPT، انتقد دبوس Humane AI: AI Eye