كشف علماء معهد ماساتشوستس للتكنولوجيا عن أول محاكاة واقعية للقيادة الذاتية مفتوحة المصدر، وهذا يعنى أنها متاحة للجمهور، ما يتيح بناء بيئات واقعية للتدريب القابل للنشر واختبار المركبات المستقلة.
ووفقا لما ذكره موقع "sciencedaily"، تعد العوالم الافتراضية شديدة الواقعية أفضل مدارس لتعليم قيادة السيارات ذاتية القيادة "AVs"، حيث تعتمد شركات Tesla وWaymo وغيرها من الشركات ذاتية القيادة اعتمادًا كبيرًا على مثل هذه التجارب، لكن من خلال تمكين محاكات واقعية باهظة الثمن وذات ملكية خاصة، على خلاف هذه المحاكاة مفتوحة المصدر.
أنشأ علماء من مختبر علوم الكمبيوتر والذكاء الاصطناعى "CSAIL" التابع لمعهد ماساتشوستس للتكنولوجيا "VISTA 2.0"، وهو محرك محاكاة يعتمد على البيانات حيث يمكن للمركبات تعلم القيادة في العالم الحقيقي والتعامل مع سيناريوهات الاصطدام الوشيك، ويتم إطلاق جميع الشفرات مفتوحة المصدر للجمهور.
ويعد VISTA عبارة عن محاكي واقعي يعتمد على البيانات للقيادة الذاتية، يمكنه محاكاة الفيديو المباشر، ولكن بيانات LiDAR وكاميرات الأحداث، وأيضًا دمج مركبات محاكاة أخرى لنموذجة مواقف القيادة المعقدة.
ويختلف VISTA اختلافاً جوهرياً عن محاكات "AV" الحالية نظرًا لأنه يعتمد على البيانات، وهذا يفسر أنه تم إنشاؤه وعرضه بشكل واقعي من بيانات العالم الحقيقي، مما يتيح النقل المباشر إلى الواقع.
كما أدخل VISTA 2.0 نظاما يعتمد على البيانات يمكنه محاكاة أنواع أجهزة الاستشعار المعقدة والسيناريوهات والتقاطعات التفاعلية على نطاق واسع، باستخدام بيانات أقل بكثير من النماذج السابقة، لتمكن الفريق من تدريب المركبات المستقلة التي يمكن أن تكون أكثر قوة بشكل كبير من المدربة على كميات كبيرة من بيانات العالم الحقيقي.
وقال ألكساندر أميني، طالب الدكتوراه في CSAIL والمؤلف الرئيسي المشارك في البحث: "هذه قفزة هائلة في قدرات المحاكاة المستندة إلى البيانات للمركبات ذاتية القيادة، بالإضافة إلى زيادة الحجم والقدرة على التعامل مع تعقيد القيادة الأكبر".
كما أوضحت طالبة الدكتوراه Tsun-Hsuan Wang بنفس المعهد، أن VISTA 2.0 يتيح القدرة على محاكاة بيانات المستشعر إلى ما هو أبعد من كاميرات 2D RGB، وذلك من خلال ليدر ثلاثي الأبعاد، وكاميرات غير منتظمة التوقيت قائمة على الأحداث، وحتى السيناريوهات التفاعلية والديناميكية مع المركبات الأخرى أيضًا".