رئيس التحرير
خالد مهران
count
count

علماء يحذرون: أنظمة الذكاء الاصطناعي قد تكون على وشك الانهيار

صورة تعبيرية
صورة تعبيرية

شرح خبير الذكاء الاصطناعي ثلاث مقاطع فيديو طبية تم التلاعب بها وسط تزايد التزييف الطبي العميق.

وحذّر باحثون من أن أنظمة الذكاء الاصطناعي قد تنهار وتتحول إلى هراء مع امتلاء المزيد من مواقع الإنترنت بالمحتوى الذي يصنعه الذكاء الاصطناعي.

وشهدت السنوات الأخيرة زيادة في الإثارة حول أنظمة إنشاء النصوص مثل ChatGPT من OpenAI.

وقد دفعت هذه الإثارة الكثيرين إلى نشر منشورات على المدونات والمحتويات الأخرى التي أنشأتها تلك الأنظمة، كما تم إنتاج المزيد من الإنترنت بواسطة الذكاء الاصطناعي.

ومع ذلك، تستخدم العديد من الشركات المنتجة لهذه الأنظمة نصًا مأخوذًا من الإنترنت لتدريبها. قد يؤدي ذلك إلى حلقة يتم فيها تدريب نفس أنظمة الذكاء الاصطناعي المستخدمة لإنتاج هذا النص عليها.

وقد حذر الباحثون في ورقة بحثية جديدة من أن ذلك قد يؤدي بسرعة إلى وقوع أدوات الذكاء الاصطناعي هذه في هراء. 

وتأتي تحذيراتهم وسط قلق أكثر عمومية بشأن "نظرية الإنترنت الميتة"، التي تشير إلى أن المزيد والمزيد من شبكة الإنترنت أصبحت آلية فيما يمكن أن يكون حلقة مفرغة.

لا يستغرق الأمر سوى بضع دورات من توليد هذا المحتوى ثم التدريب عليه حتى تتمكن هذه الأنظمة من إنتاج هراء، وفقًا للبحث.

ووجدوا أن أحد الأنظمة التي تم اختبارها باستخدام نص حول الهندسة المعمارية في العصور الوسطى يحتاج فقط إلى تسعة أجيال قبل أن يكون الناتج مجرد قائمة متكررة من الأرانب، على سبيل المثال.

تدريب مفهوم الذكاء الاصطناعي

يُشار إلى مفهوم الذكاء الاصطناعي الذي يتم تدريبه على مجموعات البيانات التي تم إنشاؤها أيضًا بواسطة الذكاء الاصطناعي ومن ثم تلويث مخرجاتها باسم "انهيار النموذج". 

ويحذر الباحثون من أنه قد يصبح منتشرًا بشكل متزايد مع استخدام أنظمة الذكاء الاصطناعي بشكل أكبر عبر الإنترنت.

ويحدث ذلك لأنه عندما تنتج هذه الأنظمة البيانات ثم يتم تدريبها عليها، تميل الأجزاء الأقل شيوعًا من البيانات إلى استبعادها. استخدمت الباحثة إميلي فينجر، التي لم تشارك في الدراسة، مثال النظام الذي تم تدريبه على صور سلالات الكلاب المختلفة: إذا كان هناك المزيد من الكلاب الذهبية في البيانات الأصلية، فسوف يقوم باختيارهم، ومع استمرار العملية سيتم في نهاية المطاف استبعاد تلك الكلاب الأخرى تمامًا - قبل أن ينهار النظام وينتج مجرد هراء.

ووجد الباحثون أن التأثير نفسه يحدث مع نماذج اللغات الكبيرة مثل تلك التي تدعم ChatGPTوGemini من Google.

وقد يشكل ذلك مشكلة ليس فقط لأن الأنظمة تصبح عديمة الفائدة في نهاية المطاف، بل أيضًا لأنها ستصبح تدريجيًا أقل تنوعًا في مخرجاتها. ومع إنتاج البيانات وإعادة تدويرها، قد تفشل الأنظمة في عكس كل تنوع العالم، وقد يتم محو المجموعات الصغيرة أو التوقعات بالكامل.