اعلانات ومراجعات

OpenAI تطلق أداة لإنشاء الفيديو مما أثار قلق هوليود


تطلق OpenAI Sora، وهي أداة جديدة لإنشاء الفيديو يمكن أن تؤدي إلى هلاك العديد من المحترفين المبدعين في هوليوود.

لقد كان صعود الذكاء الاصطناعي مثيرًا للإعجاب ومرعبًا بنفس القدر، ولكن يبدو أن التقدم الأخير قد وضع نصب عينيه هوليوود. أعلنت شركة OpenAI عن تطوير Sora اليوم، وهي أداة ذكاء اصطناعي توليدية جديدة يمكنها إنشاء فيديو واقعي ومتخيل من التعليمات النصية.

على عكس مولدات الفيديو السابقة المعتمدة على الذكاء الاصطناعي، يقال إن Sora قادر على إنشاء محتوى مدته دقيقة تقريبًا، كل ذلك مع الحفاظ على الجودة المرئية والالتزام بمطالبة المستخدم. على الرغم من أن مقاطع الفيديو التي كشفت عنها OpenAI مثيرة للإعجاب بالتأكيد، إلا أنها تشكل تهديدًا مباشرًا للمبدعين الحاليين في هوليوود. وفقًا لدراسة أجريت في بداية العام، أشار ثلاثة أرباع المشاركين في الاستطلاع إلى أن أدوات الذكاء الاصطناعي “أيدوا إلغاء أو تخفيض أو دمج الوظائف في شركاتهم.وقدر التقرير أيضًا أن ما يقرب من 204000 وظيفة ستتأثر سلبًا خلال السنوات الثلاث المقبلة.

يشمل الأشخاص المعرضون للخطر الفنانين المفاهيميين، وممثلي الصوت، والمشاركين في المؤثرات البصرية وما بعد الإنتاج. “وهذا إنذار واضح للنقابات والمهنيين الموجودين في الطاقم بأي صفة،“قالت الفنانة كارلا أورتيز لـ THR. “وهذا يدل على أن التكنولوجيا موجودة للتنافس معنا. هذه ليست سوى الخطوة الأولى.“قال فنانون آخرون إنهم شهدوا بالفعل طلبًا أقل على أعمالهم، حتى أن البعض اختار ترك الصناعة تمامًا.

في حين أن مقاطع الفيديو التي يستطيع Sora إنتاجها مثيرة للإعجاب، فإن OpenAI تعترف بأنها لا تزال تعاني من بعض العناصر. “النموذج الحالي به نقاط ضعف“يقرأ الإعلان. “قد يجد صعوبة في محاكاة فيزياء مشهد معقد بدقة، وقد لا يفهم حالات محددة من السبب والنتيجة. على سبيل المثال، قد يأخذ شخص ما قضمة من ملف تعريف الارتباط، ولكن بعد ذلك، قد لا يكون هناك علامة قضمة على ملف تعريف الارتباط. قد يخلط النموذج أيضًا بين التفاصيل المكانية للموجه، على سبيل المثال، الخلط بين اليسار واليمين، وقد يواجه صعوبة في تقديم الأوصاف الدقيقة للأحداث التي تحدث مع مرور الوقت، مثل اتباع مسار معين للكاميرا.

لم يتم طرح Sora للعامة بعد، حيث أنه يخضع حاليًا لاختبارات السلامة. “سنتخذ العديد من خطوات السلامة المهمة قبل إتاحة Sora في منتجات OpenAI،“قال OpenAI. “نحن نعمل مع أعضاء الفريق الأحمر – خبراء المجال في مجالات مثل المعلومات الخاطئة، والمحتوى الذي يحض على الكراهية، والتحيز – الذين سيختبرون النموذج بشكل عدائي.ومع ذلك، لم تكشف الشركة عن المواد المستخدمة لتدريب النظام. لقد واجهوا مشاكل من قبل، حيث قام مؤلفون مثل جورج آر آر مارتن، وجون غريشام، وجوناثان فرانزين برفع دعوى قضائية ضد شركة OpenAI، متهمين الشركة باستخدام رواياتهم لتدريب الذكاء الاصطناعي الخاص بهم.

https://www.youtube.com/watch?v=hzHZHPWB5ZA



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى