
شركة DeepMind التابعة لجوجل تُحذر من الذكاء الاصطناعي في الآونة الأخيرة، أصدرت شركة DeepMind، التابعة لجوجل، تحذيرات مهمة حول المخاطر المحتملة للذكاء الاصطناعي العام (AGI). في ورقة بحثية نُشرت حديثًا، توقعت الشركة إمكانية ظهور AGI بحلول عام 2030، مما قد يشكل تهديدات جسيمة للبشرية، بما في ذلك مخاطر وجودية قد تؤدي إلى “تدمير البشرية بشكل دائم” .
ما هو الذكاء الاصطناعي العام (AGI)؟ AGI يشير إلى أنظمة ذكاء اصطناعي تمتلك قدرات معرفية تعادل أو تفوق القدرات البشرية في مجموعة واسعة من المهام. على عكس الذكاء الاصطناعي الضيق المتخصص في مهام محددة، يمكن لـ AGI التعلم والتكيف مع مهام جديدة دون تدخل بشري.
المخاطر المحتملة لـ AGI: وفقًا لتحذيرات DeepMind، تشمل المخاطر المرتبطة بـ AGI:The Indian
-
التهديدات الوجودية: إمكانية تطوير أنظمة AGI تتصرف بطرق غير متوقعة أو ضارة قد تؤدي إلى عواقب كارثية على البشرية .
-
سباق التسلح التكنولوجي: التنافس العالمي على تطوير AGI قد يؤدي إلى إهمال معايير السلامة والأخلاقيات، مما يزيد من احتمالية حدوث أخطاء كارثية .
الإجراءات المقترحة للتخفيف من المخاطر: لتقليل هذه المخاطر، توصي DeepMind باتخاذ الخطوات التالية:
-
تطوير أنظمة إنذار مبكر: تصميم آليات للكشف المبكر عن المخاطر المحتملة المرتبطة بأنظمة الذكاء الاصطناعي
-
وضع معايير سلامة صارمة: تحديد معايير واضحة لضمان تطوير واستخدام آمن لأنظمة AGI.
-
التعاون الدولي: تعزيز التعاون بين الدول والشركات لتبادل المعرفة والخبرات في مجال سلامة الذكاء الاصطناعي.
مواقف أخرى في الصناعة: لم تكن DeepMind الوحيدة في التعبير عن هذه المخاوف. في مايو 2023، وقّع كبار الباحثين والمديرين التنفيذيين في مجال الذكاء الاصطناعي، بما في ذلك رؤساء OpenAI وDeepMind وAnthropic، بيانًا مكونًا من 22 كلمة يحذر من “مخاطر الانقراض” المرتبطة بالذكاء الاصطناعي، داعين إلى إعطاء الأولوية للتخفيف من هذه المخاطر على مستوى عالمي، جنبًا إلى جنب مع مخاطر أخرى مثل الأوبئة والحروب النووية .
الخلاصة: بينما يحمل الذكاء الاصطناعي إمكانات هائلة لتحسين حياتنا، من الضروري التعامل بحذر مع تطوير أنظمة AGI. تتطلب هذه المرحلة تعزيز التعاون الدولي ووضع معايير سلامة صارمة لضمان استخدام هذه التقنيات بشكل آمن ومسؤول.