يثير مصطلح “الصندوق الأسود” تصورات متعددة تتوزع بين أجهزة التسجيل الحيوية في قمرة قيادة الطائرات وبين مسارح العرض الفنية الصغيرة. ولكن، يُعد “الصندوق الأسود” أيضًا مصطلحًا هامًا في عالم الذكاء الاصطناعي، إذ يسيطر الغموض حول تلك الأنظمة التي تُعالج المعلومات وتُنتج الإجابات دون أن تُظهر لنا كيف تصل إلى هذه النتائج. في هذا العالم المثير، يُشبه “الصندوق الأسود” لغزًا معقدًا: يمكننا معرفة ما يُدخل إليه وما يخرج منه، لكن تظل آلية العمل داخله مخفية.

يشير الصندوق الأسود في الذكاء الصناعي إلى الأنظمة التي تعمل بطريقة غير مرئية للمستخدم. يمكن تزويدها بمعلومات والحصول على نتائج، لكن لا يمكن فحص كود النظام أو المنطق الذي أنتج تلك النتائج. التعلم الآلي هو القسم الرئيسي تحت مظلة الذكاء الاصطناعي. يُعتمد عليه في أنظمة الذكاء الاصطناعي التوليدية مثل ChatGPT و DALL-E2. هناك ثلاثة مكونات للتعلم الآلي: خوارزمية أو مجموعة من الخوارزميات، بيانات التدريب، والنموذج.

الخوارزمية مجموعة من الإجراءات. في التعلم الآلي، تتعلم الخوارزمية التعرف على الأنماط بعد التدريب على مجموعة كبيرة من الأمثلة – وهي بيانات التدريب.

بعد تدريب خوارزمية التعلم الآلي، النتيجة هي نموذج التعلم الآلي. النموذج هو ما يستخدمه الناس.

على سبيل المثال، يمكن تصميم خوارزمية التعلم الآلي للتعرف على الأنماط التي تظهر في الصور، مثلًا مجموعة صور من الكلاب. النموذج الناتج للتعلم الآلي سيكون للكشف عن الكلاب. تُعطى له صورة مدخلًا وتحصل مخرجًا على ما إذا كان هناك في الصورة مجموعة بكسلات تمثل كلبًا وأين هي.

يمكن إخفاء أي من مكونات نظام التعلم الآلي الثلاثة، أو وضعها في “صندوق أسود”. وكثيرًا ما تكون الخوارزمية معروفة للعامة، ما يجعل وضعها في صندوق أسود أقل فعالية. لذا لحماية ملكيتهم الفكرية، غالبًا ما يضع مطورو الذكاء الاصطناعي النموذج في صندوق أسود. طريقة أخرى يتخذها مطورو البرمجيات هي إخفاء البيانات المستخدمة لتدريب النموذج؛ بمعنى آخر، وضع بيانات التدريب في صندوق أسود. نقيض الصندوق الأسود يُطلق عليه أحيانًا “الصندوق الزجاجي”.

نظام الذكاء الاصطناعي “الصندوق الزجاجي” هو نظام خوارزمياته وبيانات تدريبه ونموذجه متاحة للجميع للاطلاع عليها. لكن أحيانًا حتى هذه الأنظمة ينظر إليها الباحثون بصفتها صناديق سوداء. ذلك لأن الباحثين لا يفهمون تمامًا كيفية عمل خوارزميات التعلم الآلي، وخاصةً خوارزميات التعلم العميق. مجال الذكاء الاصطناعي القابل للتفسير يعمل على تطوير خوارزميات ربما وإن لم تكن صندوقًا زجاجيًا، أن تكون أكثر فهمًا للبشر.

لماذا يُعد “الصندوق الأسود” في الذكاء الاصطناعي مهمًا

في كثير من الأحيان، هناك سبب حقيقي للحذر من خوارزميات ونماذج التعلم الآلي التي تعمل صناديق سوداء. تخيل أن هناك برنامجًا للذكاء الاصطناعي حلّل حالتك الصحية وأعطى تشخيصًا. هل تُفضل أن يكون هذا البرنامج مُغلقًا لا يُمكن فهم كيفية عمله، أم شفافًا ومفتوحًا لتعرف كيف توصل إلى تلك النتيجة؟ وماذا عن الطبيب الذي يعتمد على هذا البرنامج لتحديد علاجك؟ من المؤكد أنك ترغب بفهم المنطق وراء قرار البرنامج. وإذا ما رفض برنامج التعلم الآلي طلبك للحصول على قرض لعملك، ألا تحب أن تعرف الأسباب؟ إذا كنت تعرفها، يمكنك الاعتراض على القرار بشكل أكثر فاعلية، أو تحسين وضعك لتزيد من فرصك في الحصول على قرض في المستقبل.

كما أن للصناديق السوداء تأثيرات كبيرة في أمن البرمجيات. لفترة طويلة، ظن الكثيرون في مجال الكمبيوتر أن إخفاء البرمجيات وجعلها غير قابلة للفحص سيجعلها آمن، ولكن أظهر الواقع أن هذه الافتراضات خاطئة، لأن القراصنة قادرون على تحليل البرمجيات وتقليدها، أي إنشاء نسخة مماثلة من خلال دراسة كيفية عملها، واكتشاف الثغرات للاستفادة منها.

وإذا كانت البرمجيات شفافة “صندوق زجاجي”، فيمكن لمُختبري البرمجيات والقراصنة الأخلاقيين تحليلها وتنبيه المطورين إلى أي نقاط ضعف، ثم تقليل احتمالية التعرض لهجمات إلكترونية.

اقرأ أيضًا:

يوتيوب يستعد لإضافة أدوات الذكاء الاصطناعي في الموقع

علماء يعلمون الذكاء الاصطناعي شم الروائح!

ترجمة: محمد حسام

تدقيق: باسل حميدي

المصدر