تقنيات الذكاء الاصطناعي تشهد تطورات مبهرة
شهدت تقنيات الذكاء الاصطناعي في الآونة الأخيرة تطوّرات مبهرة جعلت الصور التي تنتجها تبدو شديدة الواقعيّة ولاقت رواجاً واسعاً على مواقع التواصل الاجتماعي، ما أثار تساؤلات حول سبل كشفها. صحيحٌ أنه حتى اليوم ما من أداة يمكن أن تجزم ما إن كانت الصورة وليدة برنامج ذكاء اصطناعيّ، إلا أنّه يمكن الاستناد إلى عناصر عدّة قد تُشير إلى استخدام هذه التقنيّة، بحسب ما أفاد خبراء استطلعت آراءهم وكالة فرانس برس بين 21 و23 آذار/مارس 2023.
تتيح بعض برمجيات الذكاء الاصطناعي، مثل “دال-إي”، “ميدجورني” و”ستايبل ديفيوجن” و”كرايون”، توليد صور بمجرّد إدخال بعض الكلمات المفتاحية باللغة الإنكليزيّة مثل (رائد فضاء يركب حصاناً على كوكب المريخ)، وذلك باستخدام قواعد بيانات ضخمة تعزّزها أيضاً طلبات المستخدمين.
لكن كيف يمكن أن نميّز هذه الصور؟ بعض مستخدمي مواقع التواصل يلجؤون إلى تطبيقات الذكاء الاصطناعيّ لإنشاء أعمالٍ فنيّة أو صورٍ على سبيل الفكاهة، لكنّ آخرين يستخدمون هذه الأدوات لإنتاج صورٍ مرتبطة بأحداثٍ سياسيّة.
من بين هذه الصور الرائجة عبر مواقع التواصل الاجتماعي واحدة تعود للقاء الرئيس الصيني شي جينبينغ بنظيره الروسيّ فلاديمير بوتين في 20 آذار/مارس 2023.
Hi, I'm a tech reporter that covers China, cybersecurity, & new media. Hundreds of people are sharing this photo of Xi Jinping & Vladimir Putin as they meet at the Kremlin. The two did meet, but it's highly likely this photo was generated by an AI program. Here's why: 🧵 pic.twitter.com/6xqsDLxiMa
— Amanda Florian 小爱 (@Amanda_Florian) March 21, 2023
ومجموعة أخرى لمشاهد متخيّلة تُظهر الرئيس الفرنسي إيمانويل ماكرون يجمع النفايات.
L'#ia #photo a fait des progrès démentiels en très peu de temps, désormais le #fake sera la norme sur les #reseaux, doutez de ce que vous voyez par défaut, plus le choix.#midjourney #midjourneyv5 pic.twitter.com/dJoZXGrbRy
— Cryptonoo₿ From 100K to 0 🐐 (@Cryptonoobzzzz) March 19, 2023
غالباً ما يعمد صانعو هذه الصور للإشارة إلى أنّها نتاج برامج ذكاء اصطناعيّ، لكنّها سرعان ما تنتشر خارج سياقها ويصدّق البعض أنّها حقيقيّة.
هناك أدوات عدّة لكشف حقيقة هذه الصور وأخرى قيد التطوير، إلا أنّ النتائج التي تقدّمها ليست حاسمة، وقد تعطي نتائج غير دقيقة، بحسب تجارب قام بها صحافيو فرانس برس.
ويشرح ديفيد فيشينغر المهندس المتخصّص في الذكاء الاصطناعيّ في جامعة فيينا للتكنولوجيا لفرانس برس أنّ عمل الذكاء الاصطناعي لا يقوم على مجرّد اقتطاع أجزاء من صورٍ لإعادة تركيبها إذ “يلجأ إلى ملايين بل مليارات الصور لاستخراج بيانات منها، ثمّ يعيد استخدامها لتوليد صورة جديدة تماماً”.
بدوره يوضح لفرانس برس فينسنت تيراسي، أحد مؤسسي شركة Draft&Goal الناشئة التي تطوّر أداة خاصة بالجامعات تكشف المحتوى المنتج عبر الذكاء الاصطناعي، أنّ برامج الذكاء الاصطناعي تخلط الصور المتاحة لها في قاعدة البيانات ثم تفكّكها لتعيد بناء مشهد جديد تماماً لا يمكن تتبّع العناصر المستخدمة في صناعته.
لهذه الأسباب لا يمكن لمنصّات كشف الذكاء الاصطناعي أن تصل لنتائج حاسمة في هذه المرحلة.
لكن ماذا عن البيانات الوصفيّة (Metadata) التي تُعتبر بطاقة تعريفيّة للصورة ويمكن أن تتضمّن معلومات عن أصلها؟
“للأسف لا يمكن الاعتماد على هذه البيانات لأنّها تُحذف مباشرة عند تحميل الصورة على مواقع التواصل”، بهذه العبارة تجيب الأستاذة في جامعة فريديريك -2 في نابولي والمتخصصة في الذكاء الاصطناعيّ أناليزا فيردوليفا على سؤال فرانس برس.
العودة إلى مصدر الصورة
بحسب الخبراء، أفضل طريقة لكشف حقيقة الصورة تكمن في العثور على مصدرها الأصليّ، فقد تكون منشورة على حساب مَن صنعها مرفقة بإشارة إلى أنّها نتاج برنامج ذكاء اصطناعيّ.
وهنا يمكن استخدام البحث العكسيّ عن الصور في مختلف محرّكات البحث للوصول إلى الصفحات التي نشرت الصورة.
لقد أتاحت هذه الطريقة الوصول إلى أصل الصور التي زعم ناشروها أنّها لتوقيف الرئيس الأميركي السابق دونالد ترامب.
فقد أرشد أحد الروابط إلى تغريدة نشرها إليوت هيغينز مؤسس موقع بيلينغات المتخصّص بالتحقيقات المفتوحة المصدر في 20 آذار/مارس 2023، يقول فيها إنّه صَنع هذه الصور باستخدام الإصدار الأخير لبرنامج “ميدجورني”.
Making pictures of Trump getting arrested while waiting for Trump's arrest. pic.twitter.com/4D2QQfUpLZ
— Eliot Higgins (@EliotHiggins) March 20, 2023
وفي حال لم يرشد البحث إلى مصدر الصورة، يمكن أن يساعد في الوصول إلى نسخة ذات جودة أفضل تتيح التدقيق في تفاصيلها بحثاً عن أدلّة.
إلى ذلك يمكن أن تقدّم محرّكات البحث لقطات شبيهة، ما يفتح المجال لمقارنة الصورة موضع الشكّ بصورٍ حقيقيّة من مصادر موثوقة.
على سبيل المثال، انتشرت صورة زعم ناشروها أنّها تُظهر الرئيس الروسي فلاديمير بوتين راكعاً يقبّل يد نظيره الصينيّ خلال زيارته الأخيرة إلى موسكو، إلا أنّ الصحافيّ الإيطاليّ ديفيد بوينتي أشار في حسابه على موقع تويتر أنّ الصالة التي اجتمع فيها الرئيسان في الحقيقة مختلفة تماماً عن الخلفيّة الظاهرة في الصورة، ما يثير الشكوك حولها.
قد يساعد الاطّلاع على الوصف المرافق للصورة أو تعليقات المستخدمين في معرفة ما إن كانت مصنوعة باستخدام برنامج ذكاء اصطناعيّ وأي من هذه البرامج استُخدم، فبرنامج “دال-إي” يُشتهر بالتصاميم فائقة الواقعية، و”ميد جورني” باستخدام صور المشاهير.
ويُتيح برنامج “ميدجورني” البحث عن الصّور التي ينتجها ضمن قنواته باستخدام كلمات مفتاح.
وإن لم يكن متاحاً الوصول إلى أصل الصور، عندها يمكن التركيز على تفاصيل داخلها.
تحليل الصورة
البحث عن علامة مائية
تعمد بعض برامج الذكاء الاصطناعي على ترك علامة على الصور التي تنتجها كالشّريط الملّون الذي يظهر على الصور المنتجة من خلال برنامج “دال-إي”، أو علامة القلم الملّون التي يتركها برنامج “كرايون”، أو علامة محرّك “بينغ”.
لكنّ هذه العلامات يمكن إزالتها بسهولة، بالإضافة إلى أنّ البرامج الأخرى لا تترك في الأصل علامات.
التدقيق في نقاط الصورة (pixels)
“عند الشكّ يجب التدقيق بنقاط الصورة (pixels) فهي تختلف بين الصورة الفوتوغرافيّة وتلك المولّدة باستخدام الذكاء الاصطناعي”، بحسب تينا نيكوكا المتخصّصة في معالجة الصور في مختبر الرياضيات في جامعة باريس-ساكلي لفرانس برس.
حاول صحافيو فرانس برس توليد صورة للممثّل براد بيت في باريس باستخدام برنامج “ستايبل ديفيوجن” فبدت شبيهة بالرسم الواقعيّ.
وباستخدام التعليمات نفسها أخرج برنامج “دال-إي” صورة أقرب إلى الصور الفوتوغرافيّة.
البحث عن تشوّهات
على الرغم من التطوّرات التي شهدتها هذه البرمجيات، إلا أنّ الصور التي تنتجها لا تزال تشوبها عيوبٌ وتشوّهات. وتعدّ هذه الأخطاء السبيل الأفضل لكشف هذا النوع من الصور.
من جهتها تحذّر أناليزا فيردوليفا من أنّ برمجيات الذكاء الاصطناعي تتحسّن يوماً بعد يوم ويجب ألاّ نركن فقط إلى هذه الأخطاء التي تظهر حالياً.
كانت برمجيات الذكاء الاصطناعي، وإلى غاية آذار/مارس 2023، تنتج صوراً تشوبها أخطاء وتشوّهات على مستوى اليدين كما يظهر في هذه الصور التي تبدو شديدة الواقعيّة باستثناء يد الشرطيّ الذي يرتدي قفازاً من ستة أصابع.
The hand strikes again🖖: these photos allegedly shot at a French protest rally yesterday look almost real – if it weren't for the officer's six-fingered glove #disinformation #AI pic.twitter.com/qzi6DxMdOx
— Nina Lamparski (@ninaism) February 8, 2023
أمّا في الصور المزعومة لاعتقال ترامب فيمكن ملاحظة أنّ بعض الوجوه مغبشة وأنّ أرجل عناصر الشرطة غير متّسقة. وفي إحدى الصور يمكن أن نرى أنّ ترامب يرتدي حزاماً خاصاً بالشرطة.
“من الصعوبات التي تواجهها حالياً برمجيات الذكاء الاصطناعي إظهار الانعكاسات بشكلٍ واقعيّ. لذلك يمكن للتدقيق في الظلال والمرايا وانعكاس الأشكال على المياه أن يشكّل دليلاً على أنّ الصورة مصدرها برنامج ذكاء اصطناعيّ”، يقول فينسنت تيراسي.
ويشير تيراسي إلى أنّ التدقيق بالعيون مفيد أيضاً في هذا الإطار، إذ إنّها تظهر انعكاساً قد تشوبه أخطاء، كما يمكن رصد اختلافٍ بالشكل أو بالحجم أو باللون بين العينين، ما يمكن أن يقدّم دليلاً إضافياً.
على سبيل المثال في الصورة أدناه التي صُمّمت باستخدام برنامج ذكاء اصطناعي، وعند تكبيرها باستخدام عدسة InVid يمكن ملاحظة اختلاف اللون بين عينيّ ماكرون وميله إلى البنيّ في حين أنّ لون عينيه في الحقيقة أزرق.
هذه البرمجيات قد تنتج أيضاً عناصر غير متّسقة كحجم الوجه، أو موضع الأذنين أو تشوّهات على مستوى الأقراط. ومن العناصر الأخرى التي يصعب على برمجيات الذكاء الاصطناعي أنّ تقلّدها: الشعر والأسنان.
تشكّل النظّارات الشمسيّة تحدياً إضافياً لهذه البرمجيات، إذ تظهر أحياناً وكأنها ذائبة على وجه الأشخاص.
ويلفت الخبراء النظر إلى أنّ اعتماد برمجيات الذكاء الاصطناعي على مزج عناصر من صورٍ عدّة قد ينعكس على جودة الصورة خصوصاً على مستوى الإضاءة.
النظر إلى خلفيّة الصورة
عند التدقيق في الصورة يجب الانتباه إلى الجزء الخلفيّ منها حيث يمكن أن تختبئ بعض التشوّهات.
هذه الصورة التي جابت مواقع التواصل الاجتماعي وتظهر الرئيس الأمريكي باراك أوباما والمستشارة الألمانية السابقة أنجيلا ميركل على شاطئ، تبدو شديدة الواقعيّة للوهلة الأولى، إلا أنّ التدقيق في عناصرها يثبت العكس إذ يظهر أحد الواقفين مقطوع الرجلين.
ويوضح فينسنت فيراسي أنّه كلّما ابتعدت العناصر عن وسط الصورة تزيد نسبة تعرّضها لتشوّهات.
في الصورة المتداولة لبوتين مقبّلاً يد شي جين بينغ يظهر العمود في الخلفيّة غير مستقيم، وهو عنصرٌ يضاف إلى حجم رأس بوتين الذي يبدو غير متّسق مع جسمه، كما يلفت لفرانس برس ديفيد فيشنغر. يضاف إلى ذلك التشوّه في يدي الشخص الواقف إلى يسار بوتين.
اتّباع المنطق السليم
تتضمّن الصور المولّدة باستخدام الذكاء الاصطناعي عناصر قد لا تكون مشوّهة إلا أنّها تشكّل بوجودها خطأ منطقياً، لذلك يجب اتباع المنطق السليم عند التدقيق في صورة موضع شكّ.
فهذه الصورة التي صنعها صحافيّو فرانس برس عبر برنامج “ميدجورني” من المفترض أن تظهر الممثل الأميركي براد بيت يحمل الكرواسان في العاصمة الفرنسيّة باريس، إلا أنّ الإشارة المروريّة في الخلفيّة زرقاء اللون، وهذا النوع من الإشارات غير مستخدمٍ في الأصل في فرنسا.
إضافة إلى ذلك تبدو أصابع بيت وكأنها مقطوعة والكرواسون الذي يحمله أشبه بقطعة بلاستيك، كما تبدو الإضاءة مختلفة على الشبّاك في الخلفيّة. كلّ هذه العناصر مجتمعة تدلّ على أنّ هذه الصورة وليدة برنامج ذكاء اصطناعيّ.
كما أنّ الخطّ متعدّد الألوان أسفل اليمين يحسم أنّ الصورة صنيعة برنامج “دال-إي”.
إلى ذلك لا يبدو الشخص الظاهر في الصور شبيهاً ببراد بيت.
في النهاية، إذا انتشرت صورٌ تزعم وقوع حدثٍ ما (لقاء سياسيّ، تظاهرة…) وهناك شكوك حولها، يبقى من الأفضل البحث في مصادر إخباريّة موثوقة عمّا إذا كان الحدث وقع فعلاً.
وإن كان الحدث قد وقع بالفعل (مثل لقاء الرئيسين الروسي والصيني) يمكن الاستناد إلى الصور الحقيقيّة ومقاطع الفيديو التي وثّقت الحدث ومقارنتها بعناصر الصور المشكوك بأمرها.