التزييف العميق يعتمد على الذكاء الاصطناعي لإنشاء مقاطع فيديو تبدو حقيقية
قوضت تقنية التزييف العميق Deepfake ثقة الأشخاص في مصداقية عدد كبير من الصور والفيديوهات التي يتم تداولها عبر منصات التواصل الاجتماعي.
وفوجي نحو 25 ألف ناخب ديموقراطي بولاية نيوهامشر الأمريكية، في 25 يناير الماضي، بمكالمة هاتفية بصوت الرئيس جو بايدن، يحثهم فيها على عدم المشاركة في الإدلاء المبكر بالأصوات في الانتخابات الرئاسية الأميركية 2024، وتبين أن الصوت كان مزيفًا.
ولمواجهة هذا التزييف، أصدرت لجنة الاتصالات الفيدرالية الأمريكية، الخميس، قرارًا يحظر “فوريا” المكالمات الآلية الاحتيالية التي تتضمن أصواتا أصواتا مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي، واتخذت إجراءات صارمة ضد ما يسمى بتكنولوجيا “التزييف العميق” التي يقول الخبراء إنها قد تقوّض أمن الانتخابات أو تزيد من عمليات الاحتيال.
وذكرت شبكة “سي إن إن”، أن التصويت بالإجماع يوسع قواعد مكافحة المكالمات الآلية، لتشمل المكالمات غير المرغوب فيها باستخدام تقنية “التزييف العميق” التي يدفعها تطور الذكاء الاصطناعي من خلال التعرف على الأصوات “المصطنعة” بموجب القانون الفيدرالي الذي يحكم التسويق عبر الهاتف والمكالمات الآلية.
FCC votes to ban scam robocalls that use AI-generated voices (Common sense in action: The FCC’s move gives state attorneys general more legal tools to pursue illegal robocallers that use AI-generated voices to fool Americans)https://t.co/cNR0IYR9jQ
— Serge Van Steenkiste (@sargos66) February 9, 2024
وجاء بعد أسابيع من مكالمة آلية مزيفة، انتحلت شخصية الرئيس الأميركي، جو بايدن، واستهدفت الآلاف من الناخبين في نيو هامشير وحثتهم على عدم المشاركة في الانتخابات التمهيدية بالولاية.
وقالت رئيسة لجنة الاتصالات الفيدرالية، جيسيكا روزنورسيل، في بيان: “تستخدم الجهات السيئة الأصوات التي يولدها الذكاء الاصطناعي في مكالمات آلية غير مرغوب فيها لابتزاز أفراد الأسرة الضعفاء، وتقليد المشاهير، وتضليل الناخبين”، مضيفة “نحن ننبه المحتالين الذين يقفون وراء هذه المكالمات الآلية”.
وتمنح خطوة لجنة الاتصالات الفيدرالية المدعين العامين في الولاية المزيد من الأدوات القانونية، لملاحقة المتصلين الآليين غير القانونيين الذين يستخدمون الأصوات الناتجة عن الذكاء الاصطناعي لخداع الأمريكيين.
وبلغ عدد المكالمات الآلية التي تم إجراؤها في الولايات المتحدة ذروتها عند حوالي 58.5 مليار في عام 2019، وفقًا لتقديرات YouMail، وهي خدمة حظر المكالمات الآلية.
وفي العام الماضي، كان الرقم أقرب إلى 55 مليارًا.
التزييف لم يقتصر على الفيديوهات فقط، حيث تدوال العديد من المستخدمين على موقع إكس، صورة لبايدن، في 30 يناير الماضر، مرتديًا لباسًا عسكريًا داخل غرفة العمليات، في وقت كانت تترقب فيه الأوساط العالمية ضربة انتقامية وشيكة بعد هجوم “البرج 22” في الأردن.
Midjourney: "Dress President Biden in military fatigues, and put him in the briefing center, make him look like a strong man as he plans to start yet another war." <enter>
To be clear, this image WAS generated by AI. pic.twitter.com/JwPDMpDkXm
— Rahul Sood 🏴☠️ (@rahulsood) January 30, 2024
والصورة المتداولة تظهر الرئيس الأميركي مرتديا بدلة عسكرية، وجالسا على طاولة اجتماعات تضم أشخاصا عسكريين
لكن بالتدقيق في الصورة، تظهر أنها مصنوعة عبر تقنيات “التزييف العميق” عبر الذكاء الاصطناعي.
ما هو التزييف العميق؟
والتزييف العميق هو تقنية تعتمد على الذكاء الاصطناعي لإنشاء مقاطع فيديو مزيفة تبدو حقيقية. ويتم ذلك عن طريق دمج صور أو مقاطع فيديو لشخصين معًا لإنشاء مقطع فيديو جديد يظهر فيه الشخص الأول وكأنه يقول أو يفعل شيئًا لم يفعله في الواقع.
وتسمح التقنيات سريعة التطور للمستخدمين بتعديل الأشياء وملامح الوجه، وتحريك الصور، ونقل الحركة، واستنساخ الأصوات، وغيرها من الأمور. وكجزء من هذا النظام، يُعد التزييف العميق نوعًا من التلاعب السمعي-البصري الذي يسمح للمستخدمين بإنشاء محاكاة واقعية لوجوه الأشخاص وأصواتهم وأفعالهم.
وتُستخدم الوسائط التي يتم إنتاجها بواسطة التزييف العميق اليوم بطرق تنذر بالخطر، فعلى سبيل المثال، شجعت على العنف القائم على النوع الاجتماعي من خلال النشر غير الرضائي للصور والفيديوهات الجنسية باستخدام شبيه الشخص.
كما انتشرت أيضًا لقطات الفيديو المزورة للشخصيات العامة فضلًا عن المقاطع الصوتية الملفقة، مثل المقطع المزيف الذي ظهر في مارس من العام الماضي، ويظهر الرئيس الأوكراني فولوديمير زيلينسكي، وهو يطلب من شعب أوكرانيا إلقاء أسلحتهم والاستسلام لروسيا.
أخطار التزييف العميق
نشر المعلومات المضللة
يمكن استخدام التزييف العميق لنشر معلومات مضللة أو أخبار كاذبة.
الإضرار بسمعة الأشخاص
يمكن استخدام التزييف العميق لإنشاء مقاطع فيديو مزيفة تضر بسمعة الأشخاص.
التأثير على الانتخابات
يمكن استخدام التزييف العميق للتأثير على الانتخابات عن طريق نشر مقاطع فيديو مزيفة تُظهر المرشحين بشكل سلبي.
نصائح لمواجهة التزييف العميق
التحقق من المصدر
تأكد من المصدر الذي نشر الفيديو قبل تصديقه.
البحث عن علامات التزييف
ابحث عن علامات التزييف مثل عدم تطابق حركة الشفاه مع الصوت أو وجود تشوهات في الصورة.
استخدام أدوات الكشف عن التزييف العميق
هناك العديد من الأدوات التي يمكن استخدامها للكشف عن التزييف العميق.
وفي العموم، كن حذراً من أي شيء يبدو جيدًا لدرجة يصعب تصديقها، ولا تشارك أي مقاطع فيديو دون التحقق من صحتها، وقم بنشر الوعي حول مخاطر التزييف العميق.