الذكاء الاصطناعي.. الخطر المستقبلي على الانتخابات
تتسابق الشركات العملاقة والصغيرة منذ شهور على استخدام الذكاء الاصطناعي وخصصت من أجل ذلك بيانات لا حصر لها ومليارات الدولارات بينما يخشى منتقدون من أن تؤدي هذه التكنولوجيا إلى تفاقم الأضرار على المجتمع.
ومن جهته، قال سام ألتمان، الرئيس التنفيذي لشركة “أوبن إيه.آي” (OpenAI) الناشئة، التي كانت وراء إصدار روبوت الدردشة “تشات جي.بي.تي” (ChatGPT)، إن “الذكاء الاصطناعي يتمتع بالقدرة على تحسين كل جانب من جوانب حياتنا تقريبًا، لكنه يحمل أيضا مخاطر جسيمة”.
ستشكل أدوات الذكاء الاصطناعي خطراً حقيقياً على الانتخابات، بداية من العام 2024، بعدما أصبحت في متناول الجميع، بسبب رخصها وقوتها.
وقالت وكالة “أسوشيتد برس” أن مهندسي الكومبيوتر وعلماء السياسة والمهووسين بالتكنولوجيا حذروا من أن أدوات الذكاء الاصطناعي ستسمح قريباً لأي شخص بتزييف صور وفيديوهات وأصوات تتسم بالواقعية بما يكفي لخداع الناخبين وربما التأثير في الانتخابات.
وبعكس الصور التركيبية التي ظهرت بشكل مفاجئ وتعتبر غير مقنعة ومكلفة الإنتاج، كان التهديد الذي يشكله الذكاء الاصطناعي وما يسمى بالتزييف العميق يبدو دائماً على بعد عام أو عامين. لكن أصبح بإمكان أدوات الذكاء الاصطناعي حالياً، إنشاء أصوات بشرية مستنسخة وصور ومقاطع فيديو وصوت فائقة الواقعية في ثوانٍ وبأقل تكلفة. ومع ربط هذا المحتوى المزيف والمُنشأ رقمياً بخوارزميات قوية في وسائل التواصل الاجتماعي، سيكون من السهل تحقيق انتشار بشكل واسع وبسرعة مع استهداف جماهير محددة للغاية، ما قد يعزز الحيل والأهداف غير الشريفة للحملات الانتخابية.
وعليه، فإن تداعيات الذكاء الاصطناعي على حملات وانتخابات العام 2024 ستكون كبيرة بقدر ما هي مثيرة للقلق، حيث لا يمكن للذكاء الاصطناعي التوليدي إنتاج رسائل بريد إلكتروني أو نصوص أو مقاطع فيديو بشكل سريع فحسب، بل يمكن استخدامه أيضاً لتضليل الناخبين وانتحال شخصية المرشحين وتقويض الانتخابات على نطاق واسع.
وتوقع خبراء الذكاء الاصطناعي عدداً من السيناريوهات المقلقة التي يتم فيها استخدام الذكاء الاصطناعي التوليفي لإنشاء وسائط تركيبية لأغراض إرباك الناخبين أو التشهير بمرشح أو حتى التحريض على العنف. ويشمل ذلك إرسال رسائل آلية بصوت المرشح لإرشاد الناخبين إلى الإدلاء بأصواتهم في التاريخ الخطأ، أو خروج تسجيلات صوتية لمرشح يفترض أنه اعترف بجريمة أو عبر عن آراء عنصرية، أو فبركة لقطات فيديو تظهر شخصاً يلقي خطاباً أو مقابلة لم تحدث مطلقاً. كما يمكن بكل سهولة إنشاء صور مزيفة مصممة لتبدو وكأنها تقارير إخبارية محلية تدعي كذباً انسحاب مرشح من السباق.