OpenAI تتعهد بتزويد الحكومة الأمريكية بالوصول المبكر إلى نموذج الذكاء الاصطناعى
مي كمال الدين
كشف سام ألتمان في تغريدة على تويتر أن شركة OpenAI ستمنح معهد سلامة الذكاء الاصطناعي الأمريكي إمكانية الوصول المبكر إلى نموذجها التالي كجزء من جهود السلامة.
ويبدو أن الشركة تعمل مع الكونسورتيوم من أجل “تطوير علم تقييمات الذكاء الاصطناعي”، وقد أنشأ المعهد الوطني للمعايير والتكنولوجيا (NIST) رسميًا معهد سلامة الذكاء الاصطناعي في وقت سابق من هذا العام، على الرغم من أن نائبة الرئيس كامالا هاريس أعلنت عن ذلك في عام 2023 في قمة سلامة الذكاء الاصطناعي في المملكة المتحدة.
وفقًا لوصف المعهد الوطني للمعايير والتكنولوجيا للاتحاد، فإنه يهدف إلى “تطوير إرشادات ومعايير قائمة على العلم ومدعومة تجريبياً لقياس الذكاء الاصطناعي والسياسات المتعلقة به، ووضع الأساس لسلامة الذكاء الاصطناعي في جميع أنحاء العالم”.
وعلى نحو مماثل، تعهدت الشركة، بالتعاون مع شركة DeepMind، بمشاركة نماذج الذكاء الاصطناعي مع حكومة المملكة المتحدة في العام الماضي.
وكما أشار موقع TechCrunch، كانت هناك مخاوف متزايدة من أن شركة OpenAI تجعل السلامة أقل أولوية في سعيها لتطوير نماذج ذكاء اصطناعي أكثر قوة.
كانت هناك تكهنات بأن مجلس الإدارة قد قرر طرد سام ألتمان من الشركة وتم إعادته بسرعة بسبب مخاوف تتعلق بالسلامة والأمن، ومع ذلك، أخبرت الشركة الموظفين في مذكرة داخلية في ذلك الوقت أن ذلك كان بسبب “انهيار الاتصالات”.
في مايو/أيار من هذا العام، اعترفت شركة OpenAI بأنها قامت بحل فريق Superalignment الذي أنشأته لضمان بقاء البشرية آمنة مع تقدم الشركة في عملها على الذكاء الاصطناعي التوليدي.
قبل ذلك، غادر الشركة إيليا سوتسكيفر، المؤسس المشارك وكبير العلماء في OpenAI، والذي كان أحد قادة الفريق.
كما استقال جان لايك، الذي كان أيضًا قائدًا للفريق، قائلًا في سلسلة من التغريدات إنه كان يختلف مع قيادة OpenAI فيما يتعلق بالأولويات الأساسية للشركة لبعض الوقت وأن “ثقافة السلامة والعمليات أصبحت في مرتبة ثانوية مقارنة بالمنتجات اللامعة”. أنشأت OpenAI مجموعة سلامة جديدة بحلول نهاية شهر مايو، لكنها بقيادة أعضاء مجلس إدارة بما في ذلك ألتمان، مما أثار مخاوف بشأن الرقابة الذاتية.
للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .