اقترح فريق من العلماء فى المعهد الوطنى الأمريكى للمعايير والتقنية مجموعة من المبادئ التى تتيح لنا الحكم على قابلية تفسير القرارات التى يتخذها الذكاء الاصطناعي، وغاية المعهد الوطنى للمعايير والتقنية تطوير أنظمة ذكاء اصطناعى جديرة بالثقة، ويتضمن ذلك تحسين دقة هذه الأنظمة وموثوقيتها وقدرتها على تبرير قراراتها وأفعالها.
ونشر الفريق مسودة جديدة تتعلق بمبررات قرارات الذكاء الاصطناعى، وتضمنت هذه المسودة مواضيع هندسية وحاسوبية ومسائل متعلقة بالدراسات القانونية وعلم النفس.
وقال جوناثون فيليبس، المهندس الإلكترونى فى المعهد الوطنى للمعايير والتقنية وأحد مؤلفى التقرير: "أصبح الذكاء الاصطناعى منخرطًا فى قرارات عالية المخاطر، ولا أحد يريد أن تتخذ الآلات قرارات دون أن نفهم السبب منها. لكن التفسير الذى يرضى المهندس قد لا يقنع شخصًا فى مجال مختلف، ولذا نريد تنقيح المسودة باستخدام مجموعة متنوعة من وجهات النظر والآراء".
وطلب المعهد الوطنى للمعايير والتقنية من الناس إبداء آرائهم وتعليقاتهم على المسودة حتى 15 أكتوبر2020، وتتضمن هذه المسودة أربعة مبادئ للذكاء الاصطناعى القابل للتفسير، وهي:
يجب أن تقدم أنظمة الذكاء الاصطناعى أدلة أو أسبابًا لجميع مخرجاتها.
يجب أن تقدم الأنظمة تفسيرات لها معنى ويستطيع المستخدمون فهمها.
يشرح التفسير الآلية التى اتبعها النظام لإنتاج المخرجات بصورة صحيحة.
يعمل النظام فى الظروف التى صُمِّم من أجلها فحسب، أو عندما تكون لدى النظام ثقة كافية فى مخرجاته.
وقد يتخذ البشر أنفسهم قرارات تبدو غريبة أحيانًا لأشخاص آخرين، ومن الضرورى إيجاد معايير واضحة توفق بين البشر وأنظمة الذكاء الاصطناعي، وقال فيليبس فى بحث سابق له إن التعاون بين البشر والذكاء الاصطناعى سيمنحنا دقة أكبر من الدقة التى يمنحها أحدهما فحسب.
وأكد فيليبس أن قدرتنا على تفسير قرارات أنظمة الذكاء الاصطناعى والبشر ستتيح لنا جمع نقاط القوة لدى كل منهما.