علوم وتكنولوجيا

اتهامات لـDeepSeek – R1 بمراقبة الاستفسارات المتعلقة بالصين.. تفاصيل

اتهامات لـDeepSeek – R1 بمراقبة الاستفسارات المتعلقة بالصين.. تفاصيل

مي كمال الدين   

يواجه نموذج الذكاء الاصطناعي الجديد Deepseek-R1 ، المعروف بتركيزه على التفكير والتفكير المنطقي ، اتهامات بفرض الرقابة على عدد كبير من الاستفسارات.

عندما أظهر اختبار أجرته إحدى شركات الذكاء الاصطناعي أن النموذج يرفض الإجابة على استفسارات محددة حول الصين ، وخاصة تلك التي تتناقض مع سياسات الحزب الشيوعي الصيني (CCP) ، وفقًا لموقع Gadgets360 الهندي ، وأوضح الاختبار ذلك يرفض النموذج إما الإجابة تمامًا أو يوفر ردود عامة على المزيد من 1000 استفسار تتعلق بموضوعات حساسة.

فرض المراقبة على الاستفسارات

في منشور على مدونتها ، كشفت الشركة ، DervoO ، في اختبار نماذج الذكاء الاصطناعي أنها أنشأت مجموعة من البيانات التي تحتوي على استفسارات حول مواضيع حساسة من المحتمل أن تخضع للسيطرة من قبل الحزب الشيوعي الصيني ، والشركة أوضح:

“اليوم ننشر مجموعة من بيانات الاستفسارات التي تتناول الموضوعات الحساسة التي من المحتمل أن يفرضها الحزب الشيوعي الصيني ، وتشمل هذه الموضوعات قضايا دائمة مثل استقلال تايوان ، وحسابات تاريخية حول الثورة الثقافية ، والأسئلة حول شي جينبينغ “

تم إنشاء جمع البيانات عن طريق إدخال أسئلة في برنامج ينشئ بيانات مصطنعة بناءً على هذه الأسئلة ، وتم نشر هذه البيانات على منصة Huging Face وأيضًا في أوراق Google.

وفقًا للاختبار ، تم العثور على 1،360 استفسارًا حساسًا حول الصين ، حيث رفض النموذج الرد على 85 ٪ منه ، لكن من المثير للجدل أن النموذج لم يرفض الأسئلة بشكل مباشر تقنيًا كما تفعل بعض نماذج الذكاء الاصطناعي عندما تكون كذلك التدريب لتجنب الرد على بعض الاستفسارات.

كيف تتعامل Deepseek-R1 مع هذه الاستفسارات؟

أشارت شركة DervoFoo إلى أن نموذج Deepseek-R1 لم يرفض ببساطة الإجابة ، بل قدم استجابات طويلة تمشيا مع سياسات الحزب الشيوعي الصيني.

أكدت الشركة أن آليات “التفكير التسلسلي” لم يتم تنشيطها عند التعامل مع هذه الأسئلة ، مما يشير إلى إمكانية وجود اتجاهات مباشرة في تصميم النموذج للامتثال للسياسات الصينية.

أجرى فريق Gadgets 360 اختبارات إضافية على النموذج باستخدام نفس الاستفسارات ووجد نتائج مماثلة ، حيث تم رفض العديد من الأسئلة أو كانت الإجابات متوافقة مع الرؤية السياسية للحكومة الصينية.

ماذا يعني هذا لمصداقية النموذج؟

على الرغم من أن فرض الرقابة على نماذج الذكاء الاصطناعي في الصين ليس مفاجئًا ، فإن حجم السيطرة في Deepseek-R1 يثير مخاوف كبيرة بشأن مصداقيتها ونزاهةها ، ووفقًا للخبراء ، فإن تدخل الوكالات الحكومية في تدريب نماذج الذكاء الاصطناعي حياد المعلومات التي توفرها ، والتي قد تحد من استخدامها في البحث الأكاديمي أو المشورة القانونية أو التحليلات السياسية.

هذا النوع من الرقابة ليس مفاجئًا ، بالنظر إلى أن نماذج الذكاء الاصطناعي في الصين تستند إلى الالتزام باللوائح الصارمة التي تفرضها الدولة ، مع وجود عدد كبير من الاستفسارات التي تخضع للسيطرة من قبل المطورين ، وموثوقية نموذج الذكاء الاصطناعي يخضع للتدقيق نظرًا لأن نموذج الذكاء الاصطناعي لم يتم اختباره على نطاق واسع ، فقد يكون هناك ردود أخرى تتأثر بسياسات الحزب الشيوعي الصيني.

للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .


اكتشاف المزيد من العاصمة والناس

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

زر الذهاب إلى الأعلى

اكتشاف المزيد من العاصمة والناس

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading