تحذير جديد من العلماء حول الذكاء الاصطناعي
أصدر مجموعة من العلماء وخبراء التكنولوجيا، بيانًا جديدًا بشأن ما وصفوها بالأخطار التي قد يمثلها الذكاء الاصطناعي، داعين إلى ضرورة مواجهتها مثلما يواجه العالم أزمات مثل الأوبئة والحروب النووية.
وقال بيان نشر على الإنترنت إن “التخفيف من خطر انقراض البشرية من جراء الذكاء الاصطناعي يجب أن يكون أولوية عالمية مع المخاطر الأخرى مثل الجائحات والحرب النووية”.
We’ve released a statement on the risk of extinction from AI.
Signatories include:
– Three Turing Award winners
– Authors of the standard textbooks on AI/DL/RL
– CEOs and Execs from OpenAI, Microsoft, Google, Google DeepMind, Anthropic
– Many morehttps://t.co/mkJWhCRVwB— Center for AI Safety (@ai_risks) May 30, 2023
ومن أبرز الموقعين على البيان، سام التمان، الرئيس التنفيذي لشركة أوبن إيه آي، المسؤولة عن برنامج “تشات جي بي تي“، وجيفري هينتون، عالم الكمبيوتر المعروف بلقب الأب الروحي للذكاء الاصطناعي، وكيفن سكوت الرئيس التنفيذي للتكنولوجيا في شركة مايكروسوفت، وآخرين.
ويركز البيان على المخاوف المتزايدة بشأن خطر الذكاء الاصطناعي، علما بأن خبراء في هذه التقنية قالوا إن العالم لا يزال بعيدًا عن تطوير أنواع الذكاء الاصطناعي التي تصل لحدود الخيال العلمي.
لكن مع زيادة حجم الاستثمارات والجدل الدائر حالياً بشأن صناعة الذكاء الاصطناعي، انتشرت دعوات إلى ضرورة تنظيم التقنية، قبل أن تقع أي كوارث.
يذكر أن المخاوف تتزايد من أنظمة الذكاء الاصطناعي التي قد تتجاوز ذكاء البشر أو تخرج عن السيطرة مع ظهور جيل جديد من برامج محادثات الذكاء الاصطناعي عالية القدرة مثل “تشات جي بي تي”، بحسب أسوشيتد برس.
وكان أكثر من ألف باحث وخبير في التكنولوجيا، بينهم مالك تويتر وتسلا، إيلون ماسك، قد وقعوا خطابا مطلع العام الجاري، دعوا فيه إلى وقف تطوير أنظمة الذكاء الاصطناعي لمدة 6 أشهر لما قد تمثله من مخاطر كبيرة على المجتمع والبشرية بأكملها.
وقال مدير مركز سلامة الذكاء الاصطناعي، دان هيندريكس، في تغريدة الثلاثاء، إن هذا البيان لن يعيق المجتمع عن مواجهة الأشكال الأخرى من المخاطر الناجمة عن الذكاء الاصطناعي مثل التحيز أو المعلومات المضللة.
We just put out a statement:
“Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.”
Signatories include Hinton, Bengio, Altman, Hassabis, Song, etc.https://t.co/N9f6hs4bpa
🧵 (1/6)
— Dan Hendrycks (@DanHendrycks) May 30, 2023
وقارن هيندريكس البيان بالتحذيرات التي أطلقها العلماء النوويون بشأن ما صنعوه بالفعل.
وبدأت دول العالم في اتخاذ خطوات من أجل صياغة لوائح وقواعد متعلقة بتطوير تكنولوجيا الذكاء الاصطناعي، وأعلن الاتحاد الأوروبي عن قانون “الذكاء الاصطناعي” المتوقع تمريره لاحقا العام الجاري.
وكان العالم هينتون، أو الأب الروحي للذكاء الاصطناعي، قال في تصريحات سابقة لنيويورك تايمز، إن التطبيقات المشابهة لروبوت المحادثة “تشات جي بي تي”، يمكنها بالفعل أن تتحول إلى “أداة لنشر المعلومات المضللة، وربما تمثل في القريب العاجل خطرًا على الوظائف وعلى البشرية برمتها”.
Geoffrey Hinton, an AI pioneer, quit his job at Google, where he has worked for more than decade, so he can freely speak out about the risks posed by AI. “It is hard to see how you can prevent the bad actors from using it for bad things,” he said. https://t.co/DJ9m6ilgvi pic.twitter.com/ZwtCMEQGrb
— The New York Times (@nytimes) May 1, 2023
وسبق للرئيس الأمريكي جو بايدن أن حض الكونغرس على إقرار قوانين تضع قيودا أكثر صرامة على قطاع التكنولوجيا.
وحث البيت الأبيض على خطوات جديدة “للترويج لابتكار أمريكي مسؤول في الذكاء الاصطناعي”، ويشمل ذلك تخصيص 140 مليون دولار لتوسيع البحث بشأن الذكاء الاصطناعي، ووضع نظام تقييم للعمل مع الشركات الكبرى من أجل “تصحيح” بعض الأمور المثيرة للجدل بشأن الذكاء الاصطناعي.
وأطلقت شركة “أوبن أيه آي“، في نوفمبر الماضي تطبيق روبوت المحادثة “تشات جي بي تي”، ولاقى رواجًا كبيرًا بين المستخدمين، غير أن هناك مخاوف كبيرة ظهرت تتعلق بالخصوصية أو التحيز السياسي، أو مخاوف أخرى أمنية متعلقة بالبرنامج.