الأب الروحي للذكاء الاصطناعي: هذه التكنولوجيا أخطر من تغير المناخ
قال جيفري هينتون، الملقب بالأب الروحي للذكاء الاصطناعي، إن هذه التكنولوجيا قد تشكل خطرًا أكبر، وأكثر إلحاحًا من التغير المناخي.
واستقال هينتون من وظيفته في غوغل مؤخرًا لتحذير العالم من مخاطر الذكاء الاصطناعي، وعمل في غوغل لأكثر من عقد، ولعب دورًا حيويًا في تطوير الذكاء الاصطناعي. وأنشأ هو وطلابه شبكة عصبية كانت بمثابة أساس روبوتات الدردشة شات جي بي تي وبينغ وبارد. ومع ذلك، سرعان ما أدرك هينتون مخاطر ذلك، وترك وظيفته في غوغل لتحذير العالم من مخاطر التكنولوجيا الناشئة.
وقال هينتون إن الذكاء الاصطناعي يشكل تهديدًا "أكثر إلحاحًا" من تغير المناخ.
وأضاف "لا أريد التقليل من قيمة تغير المناخ. لا أود أن أقول: لا داعي للقلق بشأن تغير المناخ. هذه مخاطرة كبيرة أيضًا. لكنني أعتقد أن مخاطر الذكاء الاصطناعي قد تصبح في نهاية المطاف أكثر إلحاحًا".
وأوضح رائد الذكاء الاصطناعي أنه لا يزال لدينا طريقة للتغلب على تغير المناخ ونعرف ما يجب فعله لمنع الأشياء من الخروج عن السيطرة. ومع ذلك، عندما يتعلق الأمر بالذكاء الاصطناعي، يظل مسار العمل غير واضح. وأضاف هينتون "مع تغير المناخ، من السهل جدًا التوصية بما يجب عليك فعله: تتوقف فقط عن حرق الكربون. إذا قمت بذلك، فستكون الأمور في النهاية على ما يرام. أما بالنسبة للذكاء الاصطناعي، فليس من الواضح على الإطلاق ما يجب عليك فعله".
وتم الإعلان عن خبر ترك هينتون وظيفته في غوغل عند نشر مقابلته مع صحيفة نيويورك تايمز. وإلى جانب خبر ترك وظيفته في عملاق التكنولوجيا، قال هينتون أيضًا إن الإصدارات المحسّنة من الذكاء الاصطناعي يمكن أن تكون قاتلة للبشرية لأن الذكاء الاصطناعي يميل إلى تعلم "السلوك غير المتوقع من الكميات الهائلة من البيانات التي يحللها".
كما تحدث عن كيف يمكن أن يصبح هذا مشكلة في المستقبل لأن الشركات والأفراد لن يسمحوا فقط للذكاء الاصطناعي بإنشاء الكود الخاص بهم، ولكن في الواقع سوف يقومون بتشغيله بأنفسهم، حسب صحيفة إنديا توداي.
ثم أضاف هينتون أنه في وقت سابق، اعتقد الناس أن احتمال حدوث ذلك كان مبكرًا جدًا. ومع ذلك، ونظرًا للوتيرة السريعة التي ينمو بها الذكاء الاصطناعي، لم يعد الأمر كذلك.
وفي مقابلة مع MIT Technology Review، حذر هينتون من أن الذكاء الاصطناعي قد يتفوق قريبًا على البشر من حيث الذكاء.
وأضاف أيضًا أننا بحاجة إلى البدء في التفكير بجدية في العواقب المحتملة لإنشاء آلات أكثر ذكاءً من البشر.