اكتشاف خلل يمكن المخترقين من معرفة ما تقوله للذكاء الاصطناعي!
حدد باحثون في مجال الأمن السيبراني لدى مايكروسوفت ثغرة خطيرة في أنظمة الذكاء الاصطناعي الحديثة، ما يعني إمكانية اعتراض المحادثات مع روبوتات الدردشة عبر هجمات إلكترونية. يتجاوز ذلك التشفير المصمم لحماية خصوصية المحادثات.
تُعرف تقنية الهجوم هذه باسم (Whisper Leak)، وهي نوع من هجمات (اMan-in-the-middle)، إذ يستطيع المخترقون اعتراض الرسائل في أثناء انتقالها بين الخوادم. نجحت هذه التقنية لأن المخترقين تمكنوا من قراءة البيانات الوصفية للرسائل، ومن ثم استنتاج محتواها.
أوضح الباحثون تفاصيل هذه الثغرة في دراسة نُشرت في 5 نوفمبرعلى قاعدة بيانات arXiv للأبحاث الأولية. أبلغوا مزودي نماذج اللغة الكبيرة (LLM) في يونيو 2025، وقد استجاب بعضهم، ومنهم مايكروسوفت وشركة (أوبن إيه آي) مطورة (شات جي بي تي)، بتقييم المخاطر وتطبيق حلول. رفض مزودو نماذج اللغة الكبيرة الآخرون تطبيق هذه الحلول، مُبررين ذلك بأسباب مختلفة، بل إن بعضهم لم يُعلق على النتائج الجديدة، وفقًا للباحثين الذين امتنعوا عن ذكر المنصات التي أهملت تطبيق هذه الحلول.
قال ديف لير، محلل الأمن السيبراني: «لستُ متفاجئًا. تُعد أنظمة إدارة التعلم الآلي منجمًا محتملًا للمعلومات، نظرًا إلى كمية المعلومات التي يُدخلها المستخدمون فيها، ناهيك بكمية البيانات الطبية التي يُمكن تخزينها فيها. كان من المحتم أن يجد أحدهم طريقةً لاستخراج هذه المعلومات عاجلًا أم آجلًا مع استخدام المستشفيات لها لفرز بيانات الاختبارات».
الكشف عن الثغرات في بوتات الدردشة
تُعد أنظمة الذكاء الاصطناعي التوليدي مثل (شات جي بي تي)، أدوات ذكاء اصطناعي قوية قادرة على توليد استجابات بناءً على سلسلة من الطلبات، كما هو الحال في المساعدين الافتراضيين على الهواتف الذكية. تُدرب مجموعة فرعية من نماذج التعلم الآلي على كميات هائلة من البيانات لتوليد استجابات نصية.
عادةً ما تكون المحادثات التي يجريها المستخدمون مع نماذج التعلم الآلي محمية بواسطة بروتوكول أمان طبقة النقل (TLS)، وهو نوع من بروتوكولات التشفير التي تمنع المتطفلين من قراءة الاتصالات، لكن الباحثين تمكنوا من اعتراض محتوى الرسائل واستنتاجه من خلال البيانات الوصفية للاتصالات بين المستخدم وبرنامج الدردشة الآلي.
البيانات الوصفية هي في جوهرها «بيانات عن البيانات»، تتضمن الحجم والتكرار، وغالبًا ما تكون أكثر قيمة من محتوى الرسائل نفسها. من طريق اعتراض الرسائل وتحليل البيانات الوصفية، تمكن الباحثون من استنتاج موضوع الرسائل، مع أن محتوى الرسائل بين الأشخاص ونماذج التعلم الآلي ظل آمنًا.
حققوا ذلك بواسطة تحليل حجم حزم البيانات المشفرة -وهي وحدة بيانات صغيرة مُنسقة تُرسل عبر الشبكة- من استجابات نماذج التعلم الآلي. تمكن الباحثون من تطوير سلسلة من أساليب الهجوم، بالاعتماد على التوقيتات والمخرجات وتسلسل أطوال الرموز، لإعادة بناء جمل منطقية في الرسائل دون الحاجة إلى تجاوز التشفير.
يستخدم هجوم (Whisper Leak) في جوانب عديدة نسخةً أكثر تطورًا من سياسات مراقبة الإنترنت المنصوص عليها في قانون صلاحيات التحقيق البريطاني لعام 2016، الذي يستنتج محتوى الرسائل بناءً على المُرسل والتوقيتات والحجم والتكرار، دون قراءة محتوى الرسائل نفسها.
إذا كانت جهة حكومية أو مزود خدمة إنترنت يراقب حركة البيانات إلى روبوت محادثة ذكي يعمل بالذكاء الاصطناعي، فبإمكانه تحديد المستخدمين الذين يطرحون أسئلة حول مواضيع حساسة محددة -مثلًا غسيل أموال، أو معارضة سياسية، أو غيرها من المواضيع الخاضعة للمراقبة- حتى مع تشفير جميع البيانات، وفقًا للباحثين.
توجد تقنيات متنوعة يمكن لمزودي خدمات إدارة التطبيقات، استخدامها للتخفيف من هذا الخطر. يمكن مثلًا إضافة حشو عشوائي -أي إضافة وحدات عشوائية إلى الرسالة لتعطيل عملية الاستدلال- إلى حقول الاستجابة، ما يزيد من طولها ويقلل من إمكانية التنبؤ بها بتغيير أحجام الحزم.
يُعد هذا الخلل جوهر ثغرة (Whisper Leak)، لكنه نتيجة بنيوية لكيفية نشر خدمات إدارة التطبيقات. أوضح الباحثون أن التخفيف من حدة هذه الثغرة ليس تحديًا مستحيلًا، لكن لم تُطبق الحلول بشكل شامل من قِبل جميع مزودي خدمات إدارة التطبيقات.
نصح الباحثون المستخدمين بتجنب مناقشة المواضيع الحساسة على الشبكات غير الموثوقة، والتحقق من تطبيق مزودي خدماتهم لإجراءات وقائية إلى حين تمكن مزودي خدمات الدردشة الآلية من معالجة الثغرات الموجودة فيها. كما يمكن استخدام الشبكات الافتراضية الخاصة (VPN) بوصفها طبقة حماية إضافية، لأنها تخفي هوية المستخدم وموقعه.
المصادر:
الكاتب
محمد الشرقاوي

ترجمة
محمد الشرقاوي
