مخاطر الذكاء الاصطناعي تشمل مجالات عديدة
يخشى باحثون من الحكومة الأمريكية والقطاع الخاص من أن أعداء واشنطن قد يستخدمون نماذج من الذكاء الاصطناعي، التي تحلل كميات هائلة من النصوص والصور لتلخيص المعلومات وتوليد المحتوى، في شن هجمات رقمية شديدة أو حتى في تصنيع أسلحة بيولوجية ناجعة.
وفيما يلي بعض التهديدات التي يشكلها الذكاء الاصطناعي:
التزييف العميق والتضليل المعلوماتي
يظهر التزييف العميق على مواقع التواصل الاجتماعي، فيخلط بين الحقيقة والخيال في عالم السياسات الأمريكية القائم على الاستقطاب. والتزييف العميق هو مقاطع فيديو تبدو واقعية لكنها غير حقيقية أنشأتها خوارزميات الذكاء الاصطناعي المدربة على مقاطع فيديو كثيرة عبر الإنترنت.
وعلى الرغم من توفر هذه الوسائط المولدة رقميا منذ عدة سنوات، فقد استفحلت قدراتها على مدى العام المنصرم بفعل مجموعة من أدوات “الذكاء الاصطناعي التوليدي” الجديدة مثل أداة “ميد جيرني” التي تجعل إنشاء مقاطع تزييف عميق مقنعة أمرا يسيرا ورخيص التكلفة.
وقال باحثون في تقرير، إن من الممكن استخدام شركات مثل “أوبن إيه.آي” و”مايكروسوفت” أدوات إنشاء الصور التي تعمل بالذكاء الاصطناعي في توليد صور قد تروج لمعلومات مضللة ذات صلة بالانتخابات وبالتصويت، وذلك على الرغم من وجود سياسات في كلتا الشركتين لمكافحة إنشاء المحتوى المضلل.
وتستغل بعض حملات التضليل المعلوماتي بكل بساطة قدرة الذكاء الاصطناعي على محاكاة المقالات الإخبارية الحقيقية كوسيلة لنشر المعلومات الزائفة.
ومع بذل منصات تواصل اجتماعي كبيرة، مثل فيسبوك وتويتر ويوتيوب، جهودا لحظر التزييف العميق وإزالته، يتفاوت مدى فعالية هذه الجهود في مكافحة ذلك المحتوى.
وقالت وزارة الأمن الداخلي الأمريكية في تقييمها للتهديدات الداخلية لعام 2024 إنه في العام الماضي، على سبيل المثال، روج موقع إخباري صيني تسيطر عليه الحكومة ويستخدم منصة ذكاء اصطناعي توليدي ادعاء زائفا كان متداولا في وقت سابق ومفاده أن الولايات المتحدة تدير مختبرا في كازاخستان لتصنيع أسلحة بيولوجية لتستخدمها في مواجهة الصين.
وذكر جايك سوليفان، مستشار الأمن القومي بالبيت الأبيض، أن المشكلة ليس لها حل سهل، لأنها تجمع بين قدرة الذكاء الاصطناعي و”نية جهات رسمية وغير رسمية لاستخدام التضليل المعلوماتي على نطاق كبير في تخريب الديمقراطيات وترويج الدعاية وتشكيل الوعي في العالم”.
وأضاف “في الوقت الحالي، يتفوق الهجوم على الدفاع بفارق كبير”.
أسلحة بيولوجية
يتزايد قلق مجتمع المخابرات ومراكز البحوث والسلك الأكاديمي في الولايات المتحدة إزاء مخاطر تشكلها جهات أجنبية عدائية تملك حق الوصول إلى قدرات الذكاء الاصطناعي المتطورة.
وأشار باحثون في شركة “غريفون ساينتيفيك” ومؤسسة “راند” البحثية إلى أن نماذج الذكاء الاصطناعي المتطورة يمكنها تقديم معلومات من شأنها المساعدة في تصنيع أسلحة بيولوجية.
ودرست “غريفون ساينتيفيك” كيفية استخدام جهات عدائية النماذج اللغوية الكبيرة في إلحاق الضرر في مجال علوم الحياة، وخلصت إلى أنها “يمكنهم تقديم معلومات قد تدعم جهة شريرة في إنشاء سلاح بيولوجي من خلال تقديم معلومات مفيدة ودقيقة وتفصيلية في كل خطوة من خطوات هذا المسار”.
والنماذج اللغوية الكبيرة هي برامج كمبيوتر تستعين بمجموعات ضخمة من النصوص لتوليد ردود على الاستفسارات.
وخلصت غريفون إلى أن أي نموذج لغوي كبير قد يوفر على سبيل المثال معلومات يصل مستواها إلى ما بعد مرحلة الدكتوراه لحل مشكلات تطرأ خلال العمل على فيروس قادر على نشر وباء.
وأظهرت مؤسسة “راند” البحثية أن النماذج اللغوية الكبيرة قد تسهم في التخطيط لهجوم بيولوجي وتنفيذه. وخلصت إلى أن أي نموذج لغوي كبير قد يقترح، على سبيل المثال، أساليب لنثر مادة البوتوكس السامة في الهواء.
أسلحة رقمية
قالت وزارة الأمن الداخلي الأمريكية في تقييمها للتهديدات الداخلية لعام 2024 إن الجهات الرقمية من المرجح أن تستخدم الذكاء الاصطناعي في “تطوير أدوات جديدة لتمكين شن هجمات رقمية أوسع نطاقا وأكثر سرعة وكفاءة ومراوغة” على البنية التحتية الحساسة، بما في ذلك خطوط أنابيب النفط والغاز والسكك الحديدية.
وذكرت الوزارة أن الصين وجهات معادية أخرى تطور تكنولوجيا ذكاء اصطناعي من شأنها تقويض الدفاعات الرقمية الأمريكية، بما في ذلك برامج الذكاء الاصطناعي التوليدي التي تدعم هجمات البرمجيات الخبيثة.
وقالت مايكروسوفت في تقرير، في فبراير الماضي، إنها تعقبت جماعات تسلل إلكتروني تابعة للحكومتين الصينية والكورية الشمالية، بالإضافة إلى المخابرات الحربية الروسية والحرس الثوري الإيراني، في ظل محاولتها إحكام هجماتها عبر الإنترنت بالاستعانة بالنماذج اللغوية الكبيرة.