حذر خبراء الأمن المعلوماتي من نوع جديد من أدوات الذكاء الاصطناعي يُسمى وورم جي بي تي، يُباع عبر الإنترنت المظلم ويشكل تهديدًا خطيرًا على الشركات والأفراد.

ما وورم جي بي تي؟

أداة ذكاء اصطناعي مبنية على لغة جي بي تي جي، نشأت عام 2021، تلك اللغة تُعد أداةً واسعةً ومفتوحة قد تخلق نصوصًا مثل التي يصنعها البشر، مثل شات جي بي تي.

وبعكس نشأته التى تدار عبر أوبن إيه آي، مختبر البحث الخاص الذي يفرض بعض القيود لمكافحة الإساءة على منصته، مثل منع استخدام كلمات نابية وكتابة كلام يحض على الكراهية أو كتابة الفيروسات، فإن وورم جي بي تي مُتاح للجميع الذين يريدون رؤية أو إرسال أو تعديل شفرة المصدر الخاصة به، هذا يعني أن هذه المنصة تقوم بكل ما يريده المخترقون أو القراصنة.

كتابة الهجمات المنظمة تُعد فقط إحدى إمكانيات وورم جي بي تي، إذ يمتلك الكثير من الميزات الأخرى، مثل دعمه لعدد غير محدود من الشخصيات أو الأحرف والاحتفاظ بذاكرة الدردشة وتنسيق التعليمات البرمجية. وتُعد قدرته على كتابة التعليمات البرمجية أمرًا خطيرًا، إذ يؤدي إلى إنشاء الهجمات الضارة.

قال باتريك باتلر الشريك الإداري في تيسرنت، وهي شركة أسترالية في مجال الأمن السيبراني: «العديد من المجرمين اشتروا أو استأجروا وورم جي بي تي ويستخدمونه لشن حملات الاحتيال المعقدة وسرقة الهوية وهجمات البرمجيات الخبيثة».

وأشار إلى أن وورم جي بي تي يمكنه إنشاء رسائل إلكترونية احتيالية بلغات مختلفة وقواعد لغوية وإملائية دقيقة، ما يجعلها صعبة التمييز عن الرسائل الشرعية. وقال إن وورم جي بي تي يستطيع إنشاء نسخ جديدة من البرمجيات الخبيثة، يمكنها تفادي بعض أدوات الكشف التقليدية، ويمكنه مساعدة القراصنة على استغلال الثغرات المعروفة في الأنظمة.

حذر بالتر من استخدام المطورين لأدوات الذكاء الاصطناعي في مراجعة التعليمات البرمجية الخاصة بهم، إذ يمكن استعمال هذه البرمجيات لتدريب أنظمة الذكاء الاصطناعي من قبل القراصنة أو المخترقين، ما يمنحهم المزيد من المعرفة.

أشار أيضًا إلى أن عدد الجهات التي تستخدم التهديد يزداد غالبًا مع انتشار الذكاء الاصطناعي القائم على التوليد، ما يجعل الهجمات السيبرانية ممكنةً أكثر وسهلة التنفيذ.

قال أيضًا إن مركز العمليات الأمنية في تيسرنت لاحظ ارتفاعًا في أنشطة التصيد الاحتيالي والبريد الإلكتروني الضار، التي استهدفت المنظمات الأسترالية، خاصةً بعد انتشار وورم جي بي تي والأدوات الشبيهة.

وفقًا لبالتر، توجد على الأقل ستة أدوات ذكاء اصطناعي موجودة على الويب المظلم، وهي: Fraud GPT ،Evil GPT DARKBARD ،Wolf GPT ،XXX GPT ،Worm GPT إضافةً إلى الكثير قيد التطوير.

يقول أيضًا إن هذه الأدوات أقل فعاليةً من الأدوات العامة، مثل شات جي بي تي وبارد، لكنها تنتشر بسرعة ما يصعّب تتبعها وإيقافها.

يقول سكوت جاركوڤ، مدير الاستخبارات الاستراتيجية في شركة كراود سترايك، وهي شركة أمن سيبراني أخرى، إن الوضع يتفاقم بسبب النزاع المستمر في الشرق الأوسط، ما يخلق فرصًا أكثر للقراصنة لجذب الضحايا. وأشار إلى أن مجموعات القرصنة من روسيا والصين وكوريا الشمالية وإيران، «الأربعة الكبار» في الحرب السيبرانية، تستخدم أدوات الذكاء الاصطناعي التوليدي لصياغة الهجمات بلغة إنجليزية مثالية.

أشار أيضًا إلى أن النزاع الحالي في منطقة الشرق الأوسط يمثل ذريعة للقراصنة لدعوة الأشخاص لزيارة مواقع إلكترونية ضارة أو التبرع لأسباب مزيفة. وحث الجميع على أن يكونوا أكثر حذرًا ويقظة فيما يتعلق بالأمن السيبراني، واستخدام أدوات وخدمات موثوقة من أجل حماية أنفسهم.

دان شيابا، كبير مسؤولي المنتجات في آركتيك وولف، وهي شركة أخرى في مجال الأمن السيبراني، قال إن الذكاء الاصطناعي التوليدي لم يُستخدم فقط من أجل إنشاء رسائل الاحتيال، بل أيضًا في مجال وسائل التواصل الاجتماعي. إذ أكد أن القراصنة استخدموا الذكاء الاصطناعي من أجل إنشاء حسابات وهمية على وسائل التواصل والمنصات الأخرى، من أجل نشر المعلومات المضللة والدعاية الكاذبة.

قال أيضًا إن الصين أوقفت مؤخرًا رجلًا كان يستعمل شات جي بي تي لإنشاء قصة إخبارية مزيفة عن خروج قطار عن مساره، وأكد أنه لن يكون آخر شخص يستخدم هذه التكنولوجيا لإثارة الفوضى. وقال أيضًا إن الذكاء الاصطناعي التوليدي هو سلاح ذو حدين يمكن استخدامه لصالح الخير أو الشر.

أضاف أنه يجب على الشركات والأفراد أن يكونوا على معرفة تامة بالمخاطر والفوائد المحتملة للذكاء الاصطناعي التوليدي، ويجب عليهم التحقق من مصادر وصحة المعلومات التي يتلقونها، وينبغي عليهم أخيرًا استخدام منظومات الأمن السيبراني المتطورة القادرة على اكتشاف وصد الهجمات التي يُنتجها الذكاء الاصطناعي التوليدي.

اقرأ أيضًا:

باحثون يؤكدون إمكانية استخدام تشات جي بي تي ونظرائه في أعمال لا أخلاقية

قراصنة يخترعون منافسًا لتشات جي بي تي على الويب المظلم ودون حدود أخلاقية!

ترجمة: ياسين عياش

تدقيق: منال توفيق الضللي

المصدر