تقنية سورا المُقدّمة من OpenAI تنقلنا خطوة كبيرة نحو الهاوية الذكية، فالفيديوهات المولدة بالذكاء الاصطناعي قد أخذت بالتقدم والتطور على نحو تسارعي في غضون عام واحد. وهذا الأمر خطير ومجهول النتائج بعض الشيء.

لدينا أفضل دليل حتّى الآن -بعد إعلان أوبن أي آي المفاجئ للذكاء الاصطناعي الجديد- على رغبة صناعة التكنولوجيا الجديدة غير المنظمة والخالية من الأخطاء والعواقب ببيع حزمة من منتجات الذكاء الاصطناعي السوداء التي تتطلب الكثير من الطاقة وتُعدُّ قادرة على إخراج وسائط تشبه الواقع بشكل فوتوغرافي تتخطى حدود الشرعية والخصوصية والواقع الموضوعي.

وباستثناء التنظيم الحاسم والمدروس والشامل، فإن المشاهد على الإنترنت قد تصبح غير قابلة للتمييز تقريبًا، بل وعلى نحو ما غير جديرة بالثقة أكثر من أي وقت مضى. ففور أن يتلاشى عامل الإبهار، يظل المشروع مثيرًا للقلق.

المفهوم الكامن وراء تقنية Sora (باليابانية “السماء”) ليس جديدًا على نحو خاص، فيبدو أنه برنامج ذكاء اصطناعي قادر على إنشاء فيديو عالي الدقة وذلك فقط عبر اعتماده على مدخلات النص الوصفي للمستخدم.

ببساطة، يقال إن تقنية سورا تجمع بين نموذج تحويل النص إلى صورة الذي يعمل على تشغيل DALL-E ونظام شبكة عصبي يعرف باسم المحول. بينما تعمل OpenAI عمومًا على تحليل تسلسلات البيانات الضخمة مثل النص، ويُزعم أن OpenAI كيَّفت تقنية المحولات للتعامل مع إطارات الفيديو بطريقة مماثلة.

تشرح MIT Technology Review: «منحت OpenAI فقط الوصول إلى مقاطع الأمثلة الجاهزة التي عُرضت بعد أن وافقت وسائل الإعلام على الانتظار حتى بعد الإعلان الرسمي للشركة انتظارها “طلب رأي الخبراء الخارجيين” وحتى عندما عاينت OpenAI بمعاينة تجربتها الجديدة، فعلت ذلك دون إصدار تقرير فني أو عرض خلفي لعمل النموذج، إن كان حقًا عمليًا».

ما يعني أنه في المستقبل التخيلي، لن تتمكن أي هيئة تنظيمية خارجية واحدة، أو مسؤول منتخب، أو هيئة رقابية صناعية، أو مراسل تقني متواضع من معرفة كيف تقدم سورا أكثر الوسائط غرابة المُنشأة بواسطة الذكاء الاصطناعي على الإطلاق، وما البيانات التي جمعتها الشركة لتدريب برنامجها الجديد، ومقدار الطاقة المطلوبة لتغذية عروض الفيديو هذه لمدة دقيقة واحدة.

إن تلك السرعة التي وصلنا بها لهذا القدر من الاحترافية قد كانت مذهلة تمامًا مثل نتائجها من مقاطع الفيديو نفسها. فعيّنة مقاطع OpenAI لم تكن بالمثالية بأي حال من الأحوال، ولكن في تسعة أشهر فقط، انتقلنا من “الرعب الكوميدي” للذكاء الاصطناعي مثل مقطع ويل سميث وهو يأكل السباغيتي، إلى عرض شبه واقعي عالي الدقة. ناهيك عن فيديوهات تعريفية تصور شوارع المدينة المزدحمة والحيوانات المنقرضة وشخصيات الأطفال الخيالية. فكيف ستبدو التكنولوجيا المماثلة بعد تسعة أشهر من الآن، عشية واحدة من أهم الانتخابات الرئاسية الأمريكية في التاريخ الحديث؟

لذا، وفور أن تتغلب على انطباعات خدعة سورا الافتراضية، سيصبح من الصعب تجاهل الآثار المقلقة لها. وبالتأكيد، تبقى مقاطع الفيديو عجائب تكنولوجية. وقد تسفر سورا عن نتائج مبتكرة وممتعة وحتى مفيدة.

لكن ماذا لو استخدمه شخص ما لينتج عنه وعلى نحو جيد أي شيء آخر غير “مبتكر” أو “ممتع” أو “مفيد”؟ إذ نجد أن البشر أكثر براعة بكثير من أي برامج ذكاء اصطناعي توليدية. وحتى الآن، لم يتطلب كسر الحماية لهذه الأشياء سوى بعض التفاني والصبر والرغبة في ثني التكنولوجيا لتحقيق مكاسب سوء النية.

تدّعي الشركات أمثال OpenAI أنها تعمل حاليًا على تطوير بروتوكولات أمنية ومعايير صناعية بصدد منع الجهات الحاملة للنوايا السيئة من استغلال عالمنا التكنولوجي الجديد وهي لأنظمة وتقنيات مجهولة تستمر بالعمل بتهور في مشاريع مثل سورا. وعلى الرغم من ذلك، فقد فشلوا فشلًا ذريعًا وقد كانت غير مجدية إطلاقًا في تنفيذ حتى أبسط التدابير الوقائية؛ فعمليات التزييف العميقة تسيء للأجساد البشرية، وتسخر المناطق التعليمية من الدردشة للرضخ لحظر الكتب الفاشية، وتستمر الخطوط الفاصلة بين الحقيقة والخيال في التشهير.

وكما تقول OpenAI لا توجد خطط فورية لإصدار سورا للجمهور، وأنهم أيضًا يجرون اختبارات فريق الاختبار الأحمر الأمني بهدف تقييم “المجالات الحرجة للأضرار أو المخاطر”. ولكن بدون أي نوع من المعارضة التنظيمية، فمن الممكن أن تطلق OpenAI سورا في أقرب وقت ممكن.

تُعد سورا أساسًا للنماذج القادرة على فهم ومحاكاة العالم الحقيقي، وهي خطوة هامة نحو تحقيق الذكاء الاصطناعي العام، فكما ذكرت OpenAI في إعلانها مشيرةً مرةً أخرى بوضوح إلى هدف الشركة في إنشاء ذكاء اصطناعي يكاد لا يُميَز عن البشر.

بالنهاية تبقى تقنية سورا نموذجًا لفهم ومحاكاة العالم الحقيقي أو على الأقل ما تبقى منه.

اقرأ أيضًا:

كيوس جي بي تي: برنامج ذكاء اصطناعي يسعى لتدمير البشرية، وهو متصل الآن بالإنترنت!

تطوير ذكاء اصطناعي جديد مزود بخلايا من الدماغ البشري

ترجمة: زين العابدين بدور

تدقيق: حسام التهامي

المصدر