أطلقت شركة OpenAI أدوات جديدة تسمح للمبدعين وصناع المحتوى بإدارة الطريقة التي يمكن بها استخدام أعمالهم في الذكاء الاصطناعي، إضافة إلى أدوات أخرى لرصد الصور المزيفة.
وأوضحت الشركة أن أداتها الجديدة Media Manager، ستمكّن المبدعين وصناع المحتوى من تحديد أي من محتواهم مسموح باستخدامه في تدريب نماذج الذكاء الاصطناعي، وهو ما لم يكن متاحاً في الطريقة التي كانت تعتمد على وضْع صناع المحتوى لملف نصي robot.txt وسطر كودي مباشرة داخل الكود المصدري لمواقعهم.
وأشارت مطورة ChatGPT إلى أن “هذا سيتطلب بحثاً متطوراً في التعلم الآلي لبناء أول أداة من نوعها على الإطلاق لمساعدتنا على تحديد النصوص والصور والصوت والفيديو المحمية بحقوق الطبع والنشر عبر مصادر متعددة”.
وقالت الشركة: “نحن نعلم أن أغلبية الأدوات المتوفرة حالياً لحماية المحتوى المنشور على الويب من أنظمة تدريب الذكاء الاصطناعي غير كاملة، إذ إن أغلب صناع المحتوى ينشرون محتواهم على منصات عامة ولا سيطرة لهم عليها، وبالتالي فحتى الآن يمكن للمحتوى أن يتم نسخه أو التقاط صورة له أو إعادة مشاركته أو إعادة نشره من جديد كلياً، لذلك نحن في حاجة إلى حل قابل للتطبيق بشكل عام لإتاحة سيطرة أكبر لصناع المحتوى على ما ينشرونه”.
وأكدت OpenAI أنها تعاونت مع عدد من المُشرّعين وصناع المحتوى لتطوير أداتها الجديدة Media Manager، والتي ستصل بحلول عام 2025.
رصد التزييف
وأعلنت OpenAI أنها تعمل حالياً على تطوير أداة مخصصة لرصد الصور المصممة بواسطة منصتها الذكية DALL-E، إلى جانب أساليب جديدة لإضافة علامات مائية إلى الصور المصممة بالذكاء الاصطناعي عبر نماذجها.
كما زودت الأداة الجديدة بنظام رقمي لفحص الصور والكشف عما إذا كانت مصممة بالذكاء الاصطناعي من عدمه، وذلك بدقة 98% في حال كانت الصور مصممة بواسطة منصة DALL-E 3، بينما تنخفض النسبة بشكل كبير لتتراوح بين 5% إلى 10% إن كانت الصور مصممة بواسطة منصات أخرى، مثل Midjourney، بحسب الشركة.
وأعلنت مجموعة من الشركات التكنولوجية الكبرى تنسيق جهودها لوقف انتشار الصور المفبركة باستخدام الذكاء الاصطناعي عبر الإنترنت، وزيادة وعي المستخدمين بشأن حقيقة الصور التي يتداولونها.
وقالت شركة ميتا في بيان، إنها تتعاون مع اتحاد C2PA، والذي يضم مايكروسوفت وجوجل وOpenAI وأدوبي وشاترستوك و”إكس”، كي تتمكن من وضع علامات تبويب على الصور المُنشأة بمنصات الذكاء الاصطناعي الخاصة بهذه الشركات، لتوضح العلامات أن هذه الصور ليست حقيقية.
