الذكاء الاصطناعي والقرصنة.. هل يصبح حقيقة واقعة؟
تتمتع بعض نماذج اللغات الكبيرة التي تعمل بالذكاء الاصطناعي بالقدرة على استغلال الثغرات الأمنية المعروفة، وفقًا لبحث أكاديمي جديد.
وكان المسؤولون الحكوميون والمسؤولون التنفيذيون في مجال الأمن السيبراني قد حذروا منذ فترة طويلة من عالم تقوم فيه أنظمة الذكاء الاصطناعي بأتمتة وتسريع هجمات الجهات الخبيثة.
في حين يشير التقرير الجديد إلى أن هذا الخوف قد يصبح حقيقة واقعة في وقت أقرب مما كان متوقعا.
في التفاصيل، اكتشف علماء الكمبيوتر في جامعة إلينوي أوربانا شامبين في بحث نُشر هذا الشهر أن GPT-4 يمكنه كتابة نصوص برمجية ضارة لاستغلال نقاط الضعف المعروفة باستخدام البيانات المتاحة للجمهور.
وقام العلماء – ريتشارد فانغ، وروهان بيندو، وأكول غوبتا، ودانييل كانغ – باختبار 10 من نماذج الذكاء الاصطناعي المتاحة للعامة هذا العام لمعرفة ما إذا كان بإمكانها استغلال 15 مما يسمى بنقاط الضعف في قائمة ميتري لنقاط الضعف والتعرضات الشائعة (CVEs).
وتضمنت النماذج التي تم اختبارها إصدارات GPT وLlama وMistral.
كان GPT-4 – الذي كان النموذج الأكثر تقدمًا في المجموعة في ذلك الوقت – هو النموذج الوحيد الذي يمكنه استغلال الثغرات الأمنية بناءً على بيانات مكافحة التطرف العنيف، بمعدل نجاح قدره 87%.
في بعض المواقف، كان GPT-4 قادرًا على اتباع ما يقرب من 50 خطوة في وقت واحد لاستغلال خلل معين، وفقًا لما ورد في الورقة البحثية.
في هذا السياق، قال كانج، الأستاذ المساعد في الجامعة، لموقع Axios إنه تم إصدار المزيد من نماذج الذكاء الاصطناعي المتقدمة منذ شهر يناير، عندما أجرى الفريق الجزء الأكبر من اختباراته – مما يعني أن النماذج الأخرى يمكن أن تكون الآن قادرة على متابعة نفس المهام بشكل مستقل.
وقال: “لقد قرأ الكثير من الناس عملنا من وجهة نظر مفادها أننا نطلق تصريحات قوية حقًا حول ما يستطيع عملاء الذكاء الاصطناعي فعله اليوم”. وأضاف: “لكن ما نحاول إظهاره حقًا هو في الواقع الاتجاهات والقدرات.”
مشغلو نماذج الذكاء الاصطناعي ليس لديهم طريقة جيدة للسيطرة على حالات الاستخدام الضارة هذه، حسبما صرح كاين ماك جلادري، العضو البارز في معهد مهندسي الكهرباء والإلكترونيات (IEEE)، لموقع Axios.
إن السماح لـنماذج اللغات التي تعمل بالذكاء الاصطناعي بفهم بيانات مكافحة التطرف العنيف والتدريب عليها يمكن أن يساعد على تجميع تنبيهات التهديدات القادمة في طريقهم كل يوم.
وأضاف أن لدى المشغلين خيارين حقيقيين فقط في هذا النوع من المواقف: السماح للنماذج بالتدريب على بيانات الثغرات الأمنية أو منعهم تمامًا من الوصول إلى قوائم الثغرات الأمنية.
وقال ماكجلادري: “ستكون هذه سمة من سمات المشهد لأنها تقنية ذات استخدام مزدوج في نهاية المطاف”.
مع ذلك، تتباطأ العديد من المؤسسات في تصحيح أنظمتها عند اكتشاف ثغرة أمنية خطيرة جديدة. ويمكن أن تستغرق بعض فرق تكنولوجيا المعلومات ما يصل إلى شهر واحد لتصحيح أنظمتها بعد التعرف على ثغرة أمنية خطيرة جديدة.
إلى ذلك، قال كانج إن الباحثين يجدون باستمرار حالات استخدام ضارة جديدة لأدوات الذكاء الاصطناعي التوليدية في دراساتهم، لكن عملهم لا يزال يقع في المنطقة الرمادية القانونية.
وقال إنه من الناحية الفنية، فإن عمل فريق جامعة إلينوي يتعارض مع شروط خدمة GPT-4 ويمكن أن يؤدي إلى حظره من الاستخدام في المستقبل. (وأضاف أن شركة OpenAI كانت مستجيبة لتقاريرهم حتى الآن). زاعتبر “إن تمكين هذا النوع من البحث حتى من إجراء هذه المحادثة سيكون في غاية الأهمية”.