تعرف على أداة العلامة المائية الخاصة بجوجل لنصوص الذكاء الاصطناعى
مي كمال الدين
أعلنت شركة Google أن تقنية العلامات المائية النصية SynthID، وهي أداة أنشأتها الشركة لتسهيل التعرف على النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، متاحة الآن كمصدر مفتوح من خلال مجموعة أدوات الذكاء الاصطناعي التوليدية المسؤولة من Google.
“الآن، سيتمكن مطورو الذكاء الاصطناعي التوليدي الآخرون من استخدام هذه التكنولوجيا لمساعدتهم على اكتشاف ما إذا كان مصدر إخراج النص أم لا [نماذج اللغة الكبيرة] “، مما يسهل على المزيد من المطورين بناء الذكاء الاصطناعي بشكل مسؤول.”
أصبحت العلامات المائية أدوات ذات أهمية متزايدة حيث يتم استخدام نماذج لغوية كبيرة لنشر معلومات سياسية مضللة، وتوليد محتوى جنسي غير توافقي، ولأغراض ضارة أخرى. وتدرس كاليفورنيا بالفعل جعل العلامات المائية المعتمدة على الذكاء الاصطناعي إلزامية، في حين بدأت الحكومة الصينية في فرضها العام الماضي. الأدوات لا تزال قيد التطوير.
يساعد SynthID، الذي تم الإعلان عنه في أغسطس الماضي، في جعل المخرجات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي قابلة للاكتشاف عن طريق إضافة علامة مائية غير مرئية إلى الصور والصوت والفيديو والنص أثناء إنشائها.
تقول Google إن الإصدار النصي من SynthID يعمل عن طريق تقليل احتمالية إخراج النص بطريقة يمكن اكتشافها بواسطة البرامج ولكن ليس بواسطة البشر:
يقوم نموذج LLM بإنشاء نص رمزي واحد في كل مرة. يمكن أن تمثل هذه الرموز حرفًا واحدًا أو كلمة أو جزءًا من عبارة. لإنشاء تسلسل من النص المتماسك، يتنبأ النموذج بالرمز التالي الأكثر احتمالاً الذي سيتم إنشاؤه. تعتمد هذه التنبؤات على الكلمات السابقة ودرجات الاحتمالية المعينة. لكل رمز ممكن.
تدعي جوجل أن النظام، الذي تم دمجه بالفعل في برنامج Gemini chatbot الخاص بها، لا يؤثر على جودة النص الذي تم إنشاؤه أو دقته أو إبداعه أو سرعته، وهو ما يمثل مشكلة منذ فترة طويلة في أنظمة العلامات المائية.
تقول جوجل إنها تستطيع العمل على نص قصير يصل إلى ثلاث جمل، بالإضافة إلى النص الذي تم اقتصاصه أو إعادة صياغته أو تعديله، لكنها تواجه صعوبات مع النص القصير والمحتوى الذي تمت إعادة كتابته أو ترجمته، وحتى الإجابات على الأسئلة الواقعية .
وكتبت جوجل في تدوينة: “إن SynthID ليس حلاً سحريًا لتحديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، ولكنه حجر الزاوية المهم لتطوير أدوات تعريف أكثر موثوقية للذكاء الاصطناعي ويمكن أن يساعد الملايين من الأشخاص على اتخاذ قرارات مستنيرة حول كيفية تفاعلهم مع المحتوى”. بشهر مايو. تم إنشاؤها بواسطة منظمة العفو الدولية.
للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .