خبراء يناقشون مخاطر تكنولوجيا الذكاء الاصطناعي على البشر
تشير ورقة بحثية جديدة إلى أن التقدم في مجال الذكاء الاصطناعي، لا يزال مُتخلفًا وأن العالم قد يكون في خطر نتيجة لذلك.
وجمعت الورقة توقيعات من 25 خبير عالمي في المجال، والذين أشاروا إلى أن العديد من الحكومات اتخذت خطوات نحو مناقشة مخاطر الذكاء الاصطناعي وتقديم مبادئ توجيهية يمكن أن تساعد في معالجة بعض مخاطر التكنولوجيا.
ولكن الخبراء يحذرون من أن الأمر لا يرقى إلى مستوى المخاطرة التي يعتقد البعض أن التكنولوجيا يمكن أن تشكلها.
مخاطر الذكاء الاصطناعي
هذه المخاطر يمكن أن تكون كارثية، كما يقول الخبراء في ورقة بحثية طويلة تهدف إلى جمع أحدث ما توصلت إليه التكنولوجيا في مجال سلامة الذكاء الاصطناعي، حيث يمكن لأنظمة الذكاء الاصطناعي أن تكتسب ثقة البشر وتؤثر على القرارات، مما يساعد في حدوث جرائم إلكترونية واسعة النطاق وأنواع جديدة من التهديدات في الحروب.
ويقولون إن ذلك يمكن أن يتركنا أمام خسارة واسعة النطاق في الأرواح، أو الانقراض الكامل للبشرية.
فتقنيات مثل رحلات الفضاء والأسلحة النووية والإنترنت، تطورت من الخيال العلمي إلى الواقع في غضون سنوات.
وعلينا أن نستعد الآن للمخاطر التي قد تبدو وكأنها خيال علمي، مثل اختراق أنظمة الذكاء الاصطناعي للشبكات والبنية التحتية الأساسية، والتلاعب السياسي بالذكاء الاصطناعي على نطاق واسع، وجنود الروبوتات العاملة بالذكاء الاصطناعي والطائرات دون طيار القاتلة ذاتية التحكم بالكامل، وحتى الذكاء الاصطناعي الذي يحاول التفوق علينا والتهرب من ذكائنا.
وأشار الخبراء إلى أن هناك فرصا هائلة يمكن العثور عليها في هذه التكنولوجيا. لكنهم حذروا من أن هذه الفرص لا يمكن اغتنامها إلا من خلال تحمل المسؤولية عن المخاطر.
وقال دون سونج، أستاذ الذكاء الاصطناعي في جامعة كاليفورنيا في بيركلي والباحثون الأكثر شهرة في مجال أمن وخصوصية الذكاء الاصطناعي: "إن التقدم الهائل في الذكاء الاصطناعي هو أكبر فرصة وفي نفس الوقت أكبر خطر على البشرية".
ومن المهم أن نتحد ونعيد التوجيه نحو تطوير الذكاء الاصطناعي بشكل مسؤول، مع تخصيص الموارد والأولوية لضمان أن تطوير قدرات الذكاء الاصطناعي في مجال السلامة وتخفيف المخاطر يمكن أن يواكب وتيرة تطوير قدرات الذكاء الاصطناعي وتجنب أي كارثة.