مسؤولة سابقة بجوجل: إدعاءات ماسك بأن الذكاء الاصطناعى سيقتلنا جميعًا ليس لها دليل
مي كمال الدين
قال توجو ديوك، المسؤول السابق في جوجل ومدير برنامج الذكاء الاصطناعي، إن ادعاءات إيلون ماسك بأن الذكاء الاصطناعي “سيقتلنا جميعًا” ليس لها أي دليل، وفقًا لتقرير صحيفة صن.
وقالت إن الملياردير إيلون ماسك غريب الأطوار، وعلى الرغم من أنه من أشد المنتقدين للذكاء الاصطناعي وتحدث بصراحة عن المخاطر التي يشكلها، إلا أن شركته xAI كشفت عن روبوت الدردشة الخاص بها والذي يسمى Grok الشهر الماضي.
وقال ماسك أثناء حضوره القمة العالمية لسلامة الذكاء الاصطناعي في المملكة المتحدة في أوائل نوفمبر: “هناك احتمال، أعلى من الصفر، أن يقتلنا الذكاء الاصطناعي جميعًا”. “أعتقد أن الأمر بطيء ولكن هناك بعض الفرص.”
وتشمل المخاطر التي يتحدث عنها ماسك وخبراء مثل ديوك، انتهاكات حقوق الإنسان، وتعزيز الصور النمطية الخطيرة، وانتهاكات الخصوصية، وحقوق النشر، والمعلومات المضللة، والهجمات السيبرانية، بل ويخشى البعض من إمكانية استخدام الذكاء الاصطناعي في الأسلحة البيولوجية والنووية.
يقول ديوك: “لا يوجد دليل على حدوث ذلك حتى الآن، ولكن بالطبع هذا شيء يمكن أن يشكل خطرًا في المستقبل”.
في الوقت الحالي، أعظم المخاوف من الذكاء الاصطناعي هي مجرد التشاؤم الجامح.
وأوضح ديوك: “الشيء الوحيد الذي أراه يجعل الناس يعتقدون أن هذه الأشياء تتم باستخدام الذكاء الاصطناعي التوليدي، حيث يقولون إنه يحتوي على شكل من أشكال الخاصية الناشئة، حيث يخلق قدرات لم يتم تدريبه على إنشائها”.
الخصائص الناشئة هي سلوكيات ناتجة عن تفاعلات الذكاء الاصطناعي مع المستخدمين البشريين، ولكن لم يتم برمجتها أو تصميمها بشكل صريح من قبل منشئيها.
وأضاف ديوك: “أعتقد أن هذا هو المكان الذي يأتي فيه الخوف”. “إذا استمر الأمر على هذا النحو، إلى أي مدى يمكن أن يصل؟”
لا تعتقد ديوك، التي أسست منظمتها Diverse AI لتحسين التنوع في قطاع الذكاء الاصطناعي، أن البشر لديهم الكثير من الأعذار إذا كان الذكاء الآلي فعالا في الواقع.
وأوضحت: “في النهاية، نحن من نبنيها، نحن من نقوم بتدريب هذه النماذج ولا أعتقد أن لدينا أي أعذار على الإطلاق.
يقول ديوك إنه يجب على البشر تدريب الذكاء الاصطناعي بنفس الطريقة التي نربي بها أطفالنا، مع مستوى من الأبوة والأمومة السبب والنتيجة.
وقالت: “الأمر أشبه بتربية طفل، ويجب على مطوري الذكاء الاصطناعي تشجيع التعلم المعزز بدلاً من التعلم غير الخاضع للرقابة”.
وبخلاف ذلك، فإن الذكاء الاصطناعي “سيقوم بأشياء تتجاوز ما كان من المفترض أن يفعله” من خلال مطاردة التعزيز الإيجابي.
ومع ذلك، لا ينبغي لنا أن نتجاهل تأثير الإطار العالمي الذي تتحمل فيه كل دولة المسؤولية.
وحث ديوك قائلاً: “إذا تم تنفيذ إطار عمل الذكاء الاصطناعي المسؤول من البداية، فإن بعض هذه المخاوف ستكون غير موجودة”.
من المقرر استخدام الذكاء الاصطناعي في الحكومة، ولأنه يعاني من كل هذه المشاكل المتأصلة، فمن المهم جدًا وضع الأطر الصحيحة لأنه يحتوي على جوانب جيدة وسيئة وبالطبع علينا أن نكون على دراية بالجوانب السيئة.
للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .
اكتشاف المزيد من العاصمة والناس
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.