خطوات تنظيمية لمكافحة المحتوى المزيف على يوتيوب تدخل حيز التنفيذ قريبًا
استحوذت أدوات الذكاء الاصطناعي على اهتمام واسع من قبل صُناع المحتوى المرئي مؤخرًا، نظرا لقدرتها على إنتاج وتوليد الفيديوهات بجودة عالية وفي وقع أسرع وبأقل التكاليف، ما يسهم في تحسين عمليات الإنتاج وتعزيز جودة المحتوى.
لكن في المقابل، يمكن استغلال هذه الأدوات لإنتاج محتوى بتقنية التزييف العميق (Deepfake) وهو مصطلح يشير إلى استخدام تقنيات التعلم العميق لإنشاء محتوى مزيف يبدو وكأنه حقيقي، لأغراض ترفيهية أو إباحية أو سياسة، بالإضافة لعمليات الاحتيال الإلكتروني.
وفي خطوة تنظيمية، أعلنت منصة بث مقاطع الفيديو يوتيوب، أنها قد تتيح قريباً طلب حذف المحتويات المزيّفة المولّدة بواسطة الذكاء الاصطناعي.
as generative AI unlocks new forms of creativity, we're introducing measures that balance innovation with our responsibility to protect the YouTube community 🛡️
learn more about upcoming changes to AI disclosures, privacy options, and more → https://t.co/fyvXZIdx6b
— YouTube Creators (@YouTubeCreators) November 14, 2023
وأضافت الشركة عبر مدونتها الرسمية، أنها ستبدأ في مطالبة المبدعين بتسمية المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي على منصتها في الأشهر المقبلة، وستخبر المنصة المستخدمين عندما يشاهدون المحتوى الذي تم إنشاؤه باستخدام الذكاء الاصطناعي.
ومن المقرر أن تدخل هذه القواعد الجديدة حيز التنفيذ في الأشهر المقبلة وسط مخاوف من إمكان استخدام مقاطع الفيديو التي تحتوي على عناصر مولّدة بواسطة الذكاء الاصطناعي لأغراض التأثير الانتخابي أو في عمليات احتيال أو في توريط أشخاص في مواقف زائفة كالأفلام الإباحية.
معايير لتقييم الطلبات
وأوضحت نائبتا رئيس “يوتيوب” لشؤون إدارة المنتجات إميلي موكسلي وجنيفر فلانيري أوكونور عبر مدونّة أن المنصة ستتيح “إمكان طلب حذف المحتوى المولّد بواسطة الذكاء الاصطناعي أو أي محتوى آخر جرى التلاعب به بهدف محاكاة شخص يمكن التعرف عليه، بما في ذلك وجهه وصوته”.
وشرحتا أن المعايير التي تؤخذ في الاعتبار لطلب إزالة المحتوى ستتعلق بشكل خاص بالتمييز بين المحاكاة الساخرة ومقاطع الفيديو التي تظهر أشخاصاً حقيقيين يمكن التعرف عليهم، حسبما أشارت المنصة المملوكة لشركة “الفابت”.
وأضافت الشركة: “لن تتم إزالة كل المحتوى من يوتيوب، وسنأخذ في الاعتبار مجموعة متنوعة من العوامل عند تقييم هذه الطلبات”. “قد يشمل ذلك ما إذا كان المحتوى محاكاة ساخرة أو هجاء، وما إذا كان من الممكن تحديد هوية الشخص الذي يقدم الطلب بشكل فريد، أو ما إذا كان يضم موظفًا عامًا أو شخصًا معروفًا، وفي هذه الحالة قد يكون هناك حاجز أعلى.”
مكافحة سوء الاستخدام
وقالت الشركة إن أحد مجالات التأثير الواضحة كان تحديد أشكال جديدة من سوء الاستخدام. عندما تظهر تهديدات جديدة، يكون لدى أنظمتنا سياق قليل نسبيًا لفهمها وتحديدها على نطاق واسع. لكن الذكاء الاصطناعي التوليدي يساعدنا على توسيع مجموعة المعلومات التي يتم تدريب مصنفات الذكاء الاصطناعي لدينا عليها بسرعة، مما يعني أننا قادرون على تحديد هذا المحتوى والتقاطه بسرعة أكبر بكثير. كما يتيح لنا تحسين سرعة ودقة أنظمتنا تقليل كمية المحتوى الضار الذي يتعرض له المراجعون البشريون”.
ضرورة الإفصاح
وسيتطلب الأمر أيضاً من صُناع المحتوى الإشارة بوضوح إلى أن المحتوى الواقعي أنشئ باستخدام الذكاء الاصطناعي بحيث يتنبه الأشخاص الذين يشاهدونه إلى ذلك بواسطة شاشة عرض محددة.
وحسب المسؤولين في يوتيوب، قد يكون مقطع فيديو تم إنشاؤه بواسطة الذكاء الاصطناعي ويصوّر بشكل واقعي حدثاً لم يحدث إطلاقاً أو محتوى يُظهر شخصاً يقول أو يفعل شيئاً لم يقله أو يفعله.
وأشاروا أن “هذا مهم بشكل خاص في الحالات التي يتناول فيها المحتوى مواضيع حساسة مثل الانتخابات أو الصراعات أو أزمات الصحة العامة أو شخصيات”.
وسيؤدي عدم الامتثال لهذه القواعد إلى حذف المحتوى من يوتيوب أو تعليقه من برنامج مشاركة أرباح الإعلانات.
وتعتزم يوتيوب أيضاً تمكين الصناعة الموسيقية بطلب إزالة أي محتوى يتم توليده ويتضمن تقليداً لأسلوب فنان.
وأوضحت المنصة: “سيكون لدى يوتيوب عملية إزالة طلب مماثلة لشركائه في الموسيقى عندما يتم محاكاة صوت الفنان للموسيقى التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. وستكون هذه الطلبات متاحة لشركات الإنتاج أو الموزعين الذين يمثلون الفنانين في “تجارب موسيقى الذكاء الاصطناعي المبكرة” على يوتيوب أولاً”.
وتأتي هذه الخطوات التنظيمية من قبل يوتيوب، في ظل قدرة تقنيات الذكاء الاصطناعي على إنشاء مقاطع فيديو واقعية، والتي تسمى أحيانًا التزييف العميق، إذ أصبحت أكثر سهولة في السنوات العديدة الماضية، وأصبحت متاحة لأي شخص يقوم بتنزيل التطبيق.
ويمكن لأي شخص تقريبًا إنشاء وسائط تم التلاعب بها بسرعة، ويمكن للطرق الأكثر تطورًا إنتاج صور مزيفة واقعية لأشخاص معروفين يقولون ويفعلون أشياء لم تحدث بالفعل.