مشكلة كبيرة تواجه تقنية الذكاء الاصطناعي ChatGPT
يقول الباحثون إن تقنية الذكاء الاصطناعي Chatbot ربما يستخدم مفاهيم ليس لدينا توصيف لها أو نفهمها، حيث حاول منشئو تقنية الذكاء الاصطناعي ChatGPT جعل النظام يشرح نفسه.
ووجدوا أنه على الرغم من نجاحهم، إلا أنهم واجهوا بعض المشكلات، بما في ذلك حقيقة أن الذكاء الاصطناعي قد يستخدم مفاهيم ليس لدى البشر أسماء لها أو يفهمونها.
واستخدم الباحثون في OpenAI ، التي طورت تقنية الذكاء الاصطناعي ChatGPT، أحدث إصدار من نموذجها، المعروف باسم GPT-4، لمحاولة شرح سلوك GPT-2، وهو إصدار سابق.
وهي محاولة للتغلب على ما يسمى بمشكلة الصندوق الأسود باستخدام نماذج اللغات الكبيرة مثل GPT. بينما لدينا فهم جيد نسبيًا لما يدخل ويخرج من مثل هذه الأنظمة، فإن العمل الفعلي الذي يجري في الداخل يظل غامضًا إلى حد كبير.
وهذه ليست مشكلة فقط لأنها تجعل الأمور صعبة على الباحثين، وهذا يعني أيضًا أنه لا توجد طريقة تذكر لمعرفة التحيزات التي قد تكون متضمنة في النظام، أو ما إذا كان يقدم معلومات خاطئة للأشخاص الذين يستخدمونه، حيث لا توجد طريقة لمعرفة كيفية توصله إلى الاستنتاجات التي توصل إليها.
ويهدف المهندسون والعلماء إلى حل هذه المشكلة من خلال "أبحاث القابلية للتفسير"، والتي تسعى إلى إيجاد طرق للنظر داخل النموذج نفسه وفهم ما يجري بشكل أفضل. في كثير من الأحيان، يتطلب هذا النظر إلى "الخلايا العصبية" التي تشكل مثل هذا النموذج، تمامًا كما هو الحال في الدماغ البشري، يتكون نظام الذكاء الاصطناعي من مجموعة من الخلايا العصبية المزعومة التي تشكل معًا الكل.
ومع ذلك، فإن العثور على تلك الخلايا العصبية الفردية والغرض منها أمر صعب، حيث كان على البشر أن يختاروا الخلايا العصبية ويفحصونها يدويًا لمعرفة ما تمثله، ولكن بعض الأنظمة لديها مئات المليارات من المعلمات وبالتالي فإن الوصول إليها جميعًا مع الأشخاص أمر مستحيل.
عملية آلية لترجمة المصطلحات
الآن، نظر الباحثون في تقنية OpenAI إلى استخدام GPT-4 لأتمتة هذه العملية، في محاولة لانتقاء السلوك بشكل أسرع، ،ذلك من خلال محاولة إنشاء عملية آلية من شأنها أن تسمح للنظام بتقديم تفسيرات لغة طبيعية لسلوك العصبون، وتطبيق ذلك على نموذج لغة آخر سابق.
وتم نجاح ذلك في ثلاث خطوات؛ النظر إلى الخلايا العصبية في GPT-2 ومحاولة GPT-4 وشرحها، ثم محاكاة ما ستفعله تلك الخلايا العصبية، وأخيرًا تسجيل هذا التفسير من خلال مقارنة كيفية عمل التنشيط المحاكي مع التنشيط الحقيقي.
سارت معظم هذه التفسيرات بشكل سيئ، وسجل GPT-4 نفسه بشكل سيئ، لكن الباحثين قالوا إنهم يأملون في أن أظهرت التجربة أنه سيكون من الممكن استخدام تقنية الذكاء الاصطناعي لشرح نفسها، بمزيد من العمل.