طور الباحثون فى جامعة كارنيجى ميلون نموذجًا نظاما يمكنه ترجمة نص يصف الحركات المادية مباشرةً إلى رسوم متحركة بسيطة تم إنشاؤها بواسطة الكمبيوتر، وهى خطوة أولية نحو إنتاج أفلام فى يوم ما مباشرةً من البرامج النصية.
ووفقا لموقع TechXpolre الأمريكى، حقق العلماء قفزات هائلة فى حث أجهزة الكمبيوتر على فهم اللغة الطبيعية، وكذلك فى توليد إنتاج من الأشكال المادية لإنشاء رسوم متحركة واقعية.
ويعمل "لويس فيليب مورنس" وهو أستاذ مشارك فى معهد تقنيات اللغة (LTI)، و "شيتانيا أهوجا" على الجمع بين تلك العوالم باستخدام بنية يسمونها Joint Language-to-pose، أو JL2P، حيث يمكّن لنموذج JL2P دمج الجمل والحركات الجسدية بشكل مشترك، بحيث يمكنه معرفة كيفية ارتباط اللغة بالإجراءات والإيماءات والحركة.
وقال مورنس: " فى الوقت الحالى نتحدث عن تنشيط الشخصيات الافتراضية، حيث يمكن تطبيق هذا الرابط بين اللغة والإيماءات على الروبوتات لنتمكن من إخبار الروبوت المساعد الشخصى بما نريده أن يفعله".
وأضاف مورنس: "يمكننا أيضًا السير فى الاتجاه الآخر باستخدام هذا الرابط بين اللغة والرسوم المتحركة حتى يتمكن الكمبيوتر من وصف ما يحدث فى الفيديو، وأعتقد أننا فى مرحلة مبكرة من هذا البحث ولكن من منظور الذكاء الاصطناعى أنها لحظة مثيرة للغاية".