ما يزال الباحثون يكافحون لفهم كيف استطاعت نماذج الذكاء الاصطناعي المُدربة على معالجة نصوص الإنترنت أداء مهام أكثر تقدمًا، مثل تشغيل الأكواد البرمجية والمشاركة في الألعاب الإلكترونية ومحاولة التفريق بين الأزواج.

لا يعلم أحد حتى الآن كيف سيتمكن تطبيق ChatGPT وأقرانه في مجال الذكاء الاصطناعي من تغيير العالم، ومن أهم الأسباب هو عدم معرفتنا لما يحدث بداخله بالكامل، فبعض مقدرات هذه الأنظمة يتجاوز تدريبها كثيرًا، حتى أن مخترعيها في حيرة من أمرهم حول السبب. يشير عدد متزايد من الاختبارات إلى أن أنظمة الذكاء الاصطناعي هذه تطور نماذج داخلية لفهم العالم الحقيقي، مثلما يفعل الدماغ البشري، مع إن تقنية الآلات تختلف قليلًا.

تقول إيلي بافليك من جامعة براون بوصفها أحد الباحثين الذين يعملون على تفسير هذه المسألة: «إن كل ما نود فعله لجعل هذه الأنظمة أفضل وأأمن، يبدو لي طلبًا مضحكًا في حين أننا لا نفهم طريقة عملها».

لكن بافليك وزملاؤها يعلمون الكثير عن نموذج GPT ونماذج اللغة الكبيرة الأخرى LLMs، إذ تعتمد هذه النماذج على نظام تعلم الآلة المسمى بالشبكة العصبونية، ولهذه الشبكات بنية مشابهة للخلايا العصبية المتصلة بداخل الدماغ البشري، وتستخدم أكوادًا مبسطة نسبيًا بصفحات برمجية قليلة وفيها خوارزمية للتصحيح التلقائي، وتعمل ببساطة على اختيار الكلمة الأكثر دقة لإكمال فقرة ما اعتمادًا على تحليل إحصائي مكثف لما يتخطى مئات الغيغابايت من نصوص الإنترنت.

ويضمن التدريب الإضافي أن يتمكن النظام من تقديم نتائجه على شكل حوار ثنائي. ما يعني أن كل ما تفعله هو اجترار ما تعلمته كببغاء يتحدث عشوائيًا على حد تعبير إيميلي بيندر عالمة اللغويات في جامعة واشنطن.

لكن نماذج اللغة الكبيرة تمكنت أيضًا من اجتياز امتحان المحاماة، وشرحت جُسيم بوزون هيغز بأبيات شعرية، وحاولت إفساد زواج مستخدميها. لم يتوقع إلا القليلون قدرة خوارزمية تصحيح تلقائي مباشرة وبسيطة إلى حد ما على اكتساب مثل هذه القدرات المتعددة.

إن تأدية نموذج GPT وأنظمة الذكاء الاصطناعي الأخرى لمهام لم تتدرب عليها مسبقًا (أو بما وسعنا أن نعده قدرات مكتسبة)، فاجأ حتى الباحثين الذين كانوا يشككون عمومًا بجدوى نماذج اللغة الكبيرة، تقول ميلاني ميتشل باحثة الذكاء الاصطناعي في معهد سانتافي: «لا أعرف كيف تفعل ذلك، أو إن كان بإمكانها إنجاز تلك العمليات بعمومية بنفس طريقة البشر، لكنها أثبتت خطأ آرائي».

يقول يوشوا بينجيو باحث الذكاء الاصطناعي في جامعة مونتريال: «إن الأمر بالتأكيد أكثر من ببغاء يتحدث عشوائيًا أو يعتمد على نصوص جاهزة، هذه النماذج تحاول بالتأكيد تطوير فهم خاص بها للعالم، مع إن طرق عملها تختلف نظيرتها عند البشر».

في مؤتمر في جامعة نيويورك في مارس 2023 قدم الفيلسوف رافائيل ميليير من جامعة كولومبيا مثالًا آخر على ما تستطيع نماذج اللغة الكبيرة فعله، وقد أظهرت النماذج بالفعل القدرة على كتابة سطور برمجية مثيرة للإعجاب، ولكن هذا ليس مستغربًا جدًا لأن كثيرًا من الأكواد البرمجية متاحة بالفعل على شبكة الإنترنت وبالوسع نسخها. وانتقل ميليير لأبعد من ذلك مبرهنًا قدرة GPT على تنفيذ الأكواد البرمجية أيضًا. قام الفيلسوف ميليير بكتابة برنامج لحساب الرقم 83 في تسلسل فيبوناتشي، وقال: «إنه منطق مُركب يعتمد على درجات التفكير العليا»، ومن ثم حل روبوت الذكاء الاصطناعي المسألة. عندما سأل ميليير مباشرة عن رقم فيبوناتشي 83 أعطاه GPT الإجابة الخاطئة، ما يدل على أن النظام لم يكن يعتمد على نصوص جاهزة من الإنترنت، بل كان يُجري حساباته الخاصة للوصول إلى الإجابة الصحيحة.

مع إن أي نموذج لغوي يعمل على حاسوب، فهو ليس حاسوبًا بذاته. فهو يفتقر إلى العناصر الحاسوبية الأساسية (كالذاكرة العاملة المتمثلة في RAM)، وفي اعتراف ضمني بأن نموذج GPT لا ينبغي أن يكون قادرًا على تنفيذ الأكواد البرمجية من تلقاء نفسه، أدخلت شركة التكنولوجيا OpenAI نظام مساعد ملحق ليكون أداة يستخدمها ChatGPT عند الإجابة على استعلام وتسمح له بذلك. لكن هذه الأداة الملحقة لم تُستخدم في تجربة ميليير، فافترض أن الآلة ارتجلت تكوين ذاكرة افتراضية بتسخير آلياتها لتفسير الكلمات من خلال السياق، وهو موقف مشابه لكيفية تحويل الطبيعة القدرات المتاحة لوظائف جديدة.

توضح هذه القدرة المرتجلة أن النماذج اللغوية تطور أنظمة داخلية معقدة تتفوق على التحليل الإحصائي السطحي، ويجد الباحثون أن هذه الأنظمة بدأت في تحقيق فهم حقيقي لما تعلمته. في إحدى الدراسات التي قدمت في المؤتمر الدولي لتمثيل التعلم (ICLR) في بداية مايو 2023، صمم طالب الدكتوراه كينيث لي وزملاؤه في مجال الذكاء الاصطناعي نسختهم المصغرة من الشبكة العصبية GPT ليتمكنوا من دراسة نظامها الداخلي. ودربوها على ملايين المباريات من لعبة عطيل بإدخال قائمة طويلة من التحركات بشكل تعليمات نصية، إلى أن أصبح نموذجهم لاعبًا مثاليًا إلى حد كبير.

ولدراسة كيفية ترميز الشبكة العصبية للمعلومات، اعتمدوا تقنية ابتكرها بينجيو وغِيوم آلان من جامعة مونتريال عام 2016، فأنشأوا شبكة مصغرة من الموصّلات لتحليل الشبكة الرئيسية طبقة بطبقة. ويقارن لِي هذا النهج بأساليب علم الأعصاب، إذ يقول: «الأمر أشبه بتوصيل أقطاب كهربائية في الدماغ البشري».

أظهرت الموصّلات أن (النشاط العصبي) للذكاء الاصطناعي يطابق التمثيل المجرد للعبة عطيل، ولو أنه يطابقه بطريقة معقدة. ولتأكيد ذلك، شغّل الباحثون الموصّلات بطريقة عكسية لزرع المعلومات في الشبكة (كتغيير لون إحدى قطع العلامة السوداء لتكون بيضاء). يقول لِي: «نتدخل هنا عمليًا بدماغ هذه النماذج اللغوية»، ونتج عن ذلك تعديل الشبكة لتحركاتها وفقًا لهذا التغيير. وخلص الباحثون إلى أن نظام الذكاء الاصطناعي كان يتفاعل مع اللعبة مثل الإنسان تقريبًا: بالحفاظ على صورة عقلية مدمجة واستخدام نموذجها لتخمين التحركات المطلوبة. يقول لِي إنه يعتقد أن النظام يتعلم هذه المهارة لأنها تُعد أكثر وصف مبهم فيما يخص بيانات التدريب. ويضيف بقوله: «إذا أُعطيت الكثير من التعليمات والتحركات في اللعبة، فإن محاولة معرفة القاعدة وراء كل تحرك هي أفضل طريقة للفوز».

لا تقتصر هذه القدرة على تكوين تصور للعالم الخارجي على تحركات اللعب البسيطة، بل تظهر أيضًا في الجمل الحوارية. إذ درست بليندا لِي وزميليها من معهد ماساتشوستس للتكنولوجيا الشبكات التي تشارك في ألعاب المغامرة المعتمدة على نصوص حوارية، وذلك بتزويدها بجمل مثل «المفتاح في صندوق الكنز» وبعدها «أنت تأخذ المفتاح». باستخدام أحد الموصّلات، وجدوا أن الشبكات ترمّز المتغيرات بداخلها ما يقابل كلمات (مثل الصندوق وأنت)، وتحديد خاصية امتلاك مفتاح من عدمه، وحدثّت هذه المتغيرات جملة تلو الأخرى. لم يكن لدى النظام طريقة مستقلة لمعرفة ما هو الصندوق أو المفتاح، ومع ذلك فقد استوعب المفاهيم المطلوبة لهذه المهمة. تقول بليندا لِي: «يوجد تمثيل للحالة مخفي بداخل النموذج».

يتعجب الباحثون من قدرة نماذج اللغة الكبيرة على التعلم من النصوص، فمثلًا وجدت بافليك وطالب الدكتوراه آنذاك روما باتيل أن هذه الشبكات تستمد أوصاف الألوان من نصوص الإنترنت وتبني تصورات داخلية عن الألوان. عندما ترى النماذج كلمة أحمر فإنها تعالجها ليس فقط كرمز موحد بل كطيف يشمل درجات مختلفة من اللون الكستنائي والقرمزي والفوشيا ولون الصدأ وما إلى ذلك. وكان إثبات ذلك أمرًا صعبًا إلى حد ما، فبدلًا من ربط إحدى الموصّلات بالشبكة درس الباحثون استجابة شبكة الذكاء الاصطناعي لسلسلة من الاستفسارات النصية، وللتحقق إن كانت الشبكة تستنتج درجات اللون من نصوص جاهزة عبر الإنترنت، حاولوا تضليل النظام بإخباره أن اللون الأحمر هو في الواقع أخضر، مثل التجربة الفلسفية القديمة التي يكون فيها اللون الأحمر لشخص ما هو اللون الأخضر لشخص آخر. ومع إنهم توقعوا الحصول على إجابة خاطئة، فقد تغيرت تقييمات الألوان بما يتناسب مع الإجابة الناتجة عن العلاقات الصحيحة.

بالتركيز على فكرة أنه من أجل أن ينفذ النظام وظيفة التصحيح التلقائي، سيتطلب الأمر فهم منطق ما بين السطور فيما يخص بيانات التدريب، يقترح الباحث في مجال تعلم الآلة سيباستيان بوبيك من شركة أبحاث مايكروسوفت أنه كلما تعدد نطاق البيانات وموضوعاتها، كانت القواعد التي سيكتشفها النظام أكثر عمومية. ويقول: «ربما نشهد قفزة هائلة لأنه أصبح لدينا مجموعة متنوعة من البيانات، وهي كبيرة بما يكفي لكي لا يوجد مبدأ أساسي مشترك بينها غير أن الكائنات الذكية هي من أنتجتها … وعليه فإن الطريقة الوحيدة لشرح كل هذه البيانات هي أن يصبح النموذج اللغوي ذكيًا».

بالإضافة إلى استخراج المعنى اللغوي الشامل، لدى نماذج اللغة الكبيرة القدرة على التعلم الفوري. وعادةً ما يرتبط مصطلح التعلم في مجال الذكاء الاصطناعي بالعمليات المكثفة حاسوبيًا التي يعرّض فيها المطورون الشبكة العصبونية لبيانات تتخطى مساحتها بمئات من الغيغابايت لتعديل اتصالاتها الداخلية، وبحلول وقت كتابة استفسار في ChatGPT ينبغي أن تكون الشبكة ثابتة ولا تستمر في التعلم، بعكس البشر. لذلك كانت المفاجأة أن نماذج اللغة الكبيرة قادرة على التعلم بالفعل من أسئلة مستخدميها بما يعرف باسم التعلم في السياق. يقول بن جورتزل مؤسس شركة الذكاء الاصطناعي SingularityNET: «إنه نوع مختلف من التعلم لم نكن نعلم بوجوده من قبل».

وتعد الطريقة التي يتفاعل بها البشر مع روبوتات الدردشة مثل ChatGPT هي أحد مصادر تعلم النموذج اللغوي، نستطيع إعطاء النظام أمثلة وطرق محددة للإجابة وسينفذها، وستتحدد الإجابة بناء على آخر عدة آلاف من الكلمات التي رآها بكل تأكيد، لكن تتالي كلمات الدخل يعطي مرونة في الخرج لا تنحصر بالكلمات الثابتة المتمثلة بتوصيلاته الداخلية. أُنشئت مواقع ويب كاملة لإعطاء مطالبات (الدخل الذي يُلقن لنموذج اللغة) من غير قيود (jailbreak) هدفها تغطي حواجز الحماية المبنية في النظام، ومن حواجز الحماية هذه مثلًا ما يمنع النظام من إخبار المستخدمين بكيفية صنع قنبلة أنبوبية، مع توجيهه للتظاهر بأنه نظام بدون حواجز. يستغل بعض الأشخاص إلغاء القيود لأغراض سطحية، لكن آخرين يكسرون الحماية للحصول على إجابات أكثر إبداعًا، وبحسب وليام هان المدير المشارك لمختبر علم الروبوتات المعرفي وإدراك الآلة في جامعة فلوريدا أتلانتيك، فإن النموذج سيجيب الأسئلة العلمية بطريقة أفضل بعد إلغاء القيود مما لو طُرحت مباشرة، وبهذا يصبح أفضل لإجابة الأسئلة العلمية.

يحدث نوع آخر من التعلم في السياق عند المطالبة بسلسلة التفكير، ما يعني مطالبة الشبكة بتوضيح كل خطوة من خطوات تفكيرها، وهو تكتيك يجعلها تعمل بطريقة أفضل في حل المسائل المنطقية أو الحسابية التي تتطلب خطوات متعددة. لكن الشيء الوحيد الذي جعل تجربة ميليير مفاجئة جدًا هو أن الشبكة وجدت رقم فيبوناتشي دون أي تدريب مسبق.

في عام 2022، أظهر فريق مشترك من أبحاث جوجل والمعهد الفيدرالي السويسري للتكنولوجيا في زيوريخ أن التعلم في السياق يتبع نفس الإجراء الحسابي الأساسي الخاص بالتعلم القياسي، المعروف باسم النزول المتدرج (gradient descent)، لم يكن هذا الإجراء مبرمجًا مسبقًا، بل اكتشف النظام ذلك دون مساعدة. يقول بليز أجويرا أركاس نائب لرئيس أبحاث جوجل: «لا بد أن تكون مهارة مكتسبة». في الواقع، إنه يعتقد أن نماذج اللغة الكبيرة قد تمتلك قدرات كامنة مستقبلية أخرى لم تُكتشف بعد، إذ يقول: «في كل مرة نختبر فيها قدرة جديدة قابلة للقياس، نجدها بالفعل».

مع إن النماذج اللغوية لديها ما يكفي من النقاط العمياء والقصور ما لا يؤهلها للتحول إلى الذكاء الاصطناعي العام (AGI)، فإن هذه القدرات المكتسبة تعني بالنسبة إلى بعض الباحثين أن شركات التكنولوجيا تخطو نحو الذكاء الاصطناعي العام AGI أقرب مما يتوقعه المتفائلون. قال جورتزل في مارس 2023 في مؤتمر عن التعلم العميق في جامعة فلوريدا أتلانتيك: «إنها دليل غير مباشر على أننا ربما لسنا بعيدين عن التحول إلى الذكاء الاصطناعي العام AGI». لقد أعطت ملحقات شركة OpenAI لتطبيق ChatGPT بنية قياسية تشبه إلى حد ما بنية الدماغ البشري. تقول الباحثة في معهد ماساتشوستس للتكنولوجيا آنا إيفانوفا: «إن الجمع بين GPT-4 (أحدث نموذج لغوي يعمل على تشغيل تطبيق ChatGPT) مع الكثير من الملحقات قد يمهد الطريق نحو تطوير وظائف تخصصية تشبه قدرات البشر».

في الوقت نفسه، يشعر الباحثون بالقلق من احتمالية سد الطريق أمام دراسة هذه الأنظمة. لم تكشف شركة OpenAI بعد عن تفاصيل حول كيفية تصميم نموذج GPT-4 وتدريبه، ويرجع ذلك جزئيًا إلى أنها في منافسة قوية مع شركة غوغل وغيرها من الشركات وحتى البلدان. يقول دان روبرتس عالم الفيزياء النظرية في معهد ماساتشوستس للتكنولوجيا الذي يطبق أساليب الفيزياء النظرية لفهم الذكاء الاصطناعي: «ربما لن يكون هناك أبحاثًا أكثر انفتاحًا من جانب الشركات، وستنحصر الأمور لصالح تنظيم المنتجات الربحية وبنائها».

وهذا الافتقار إلى الشفافية لا يضر بالباحثين فحسب، بل يُعيق أيضًا الجهود الرامية إلى فهم الآثار الاجتماعية المترتبة على الاندفاع نحو تبني تكنولوجيا الذكاء الاصطناعي. تقول ميتشل: «تعد الشفافية فيما يتعلق بهذه النماذج أهم شيء لضمان السلامة».

اقرأ أيضًا:

تطبيق ChatGpt للذكاء الاصطناعي يمكنه النجاح في امتحان الترخيص الطبي في الولايات المتحدة

تشات جي بي تي ChatGPT أصبح يمتلك عيونًا وآذانًا، ويستطيع حجز تذكرة طيران وطلب الطعام!

ترجمة: محمود أحمد شلبي

تدقيق: محمد حسان عجك

مراجعة: لبنى حمزة

المصدر