تقدم دراسة جديدة نُشرت في مجلة JAMA للطب الباطني بقيادة الدكتور جون دبليو آيرز من معهد كوالكوم في جامعة كاليفورنيا، سان دييغو (UCSD) لمحة مبكرة عن الدور الذي يمكن أن يلعبه مساعدو الذكاء الاصطناعي في الطب، حيث قارنت الدراسة الردود المكتوبة من الأطباء وتلك الواردة من ChatGPT إلى الأسئلة الصحية في العالم الحقيقي، وفضلت لجنة من المتخصصين في الرعاية الصحية المرخصين ردود ChatGPT بنسبة 79٪ من الوقت وصنفوا ردود ChatGPT على أنها أعلى جودة وأكثر تعاطفاً.
قال آيرز، الذي يشغل أيضًا منصب نائب رئيس الابتكار في قسم الأمراض المعدية والصحة العامة العالمية بكلية الطب بجامعة كاليفورنيا في سان فرانسيسكو: "إن فرص تحسين الرعاية الصحية باستخدام الذكاء الاصطناعي هائلة، والرعاية المعززة بالذكاء الاصطناعي هي مستقبل الطب".
شرع فريق البحث في الإجابة على السؤال التالي: هل يمكن لـ ChatGPT الاستجابة بدقة للأسئلة التي يرسلها المرضى إلى أطبائهم؟ إذا كانت الإجابة بنعم، يمكن دمج نماذج الذكاء الاصطناعي في الأنظمة الصحية لتحسين استجابات الأطباء للأسئلة التي يرسلها المرضى وتخفيف العبء المتزايد باستمرار على الأطباء، وفقاً لموقع scitechdaily.
وقال المؤلف المشارك للدراسة الدكتور ديفي سميث "قد تتمكن ChatGPT من اجتياز امتحان الترخيص الطبي، ولكن الإجابة المباشرة على أسئلة المريض بدقة وتعاطفًا هي لعبة مختلفة ".
للحصول على عينة كبيرة ومتنوعة من أسئلة الرعاية الصحية وإجابات الأطباء التي لا تحتوي على معلومات شخصية يمكن تحديدها ، لجأ الفريق إلى وسائل التواصل الاجتماعي حيث ينشر ملايين المرضى علنًا أسئلة طبية يجيب عليها الأطباء.
وفي حين قد يتساءل البعض عما إذا كانت عمليات تبادل الأسئلة والأجوبة على وسائل التواصل الاجتماعي اختبارًا عادلًا ، أشار أعضاء الفريق إلى أن التبادلات كانت تعكس تجربتهم السريرية.
أخذ الفريق عينات عشوائية من 195 تبادلًا من AskDocs حيث أجاب طبيب تم التحقق منه على سؤال عام، وقدم الفريق السؤال الأصلي إلى ChatGPT وطالبه بتأليف الرد، قامت لجنة من ثلاثة متخصصين مرخصين في مجال الرعاية الصحية بتقييم كل سؤال والاستجابات المقابلة وتم تعمية ما إذا كانت الاستجابة قد نشأت من طبيب أو ChatGPT، وقارنوا الاستجابات بناءً على جودة المعلومات والتعاطف، مع الإشارة إلى الإجابة التي يفضلونها.
فضلت لجنة المقيمين المتخصصين في الرعاية الصحية استجابات ChatGPT عي استجابات الأطباء بنسبة 79٪ من الوقت.
قالت جيسيكا كيلي ، ممرضة ممارس في شركة Human Longevity والمؤلفة المشاركة في الدراسة في سان دييغو: "استجابت رسائل ChatGPT بمعلومات دقيقة ودقيقة غالبًا ما تناولت جوانب أكثر من أسئلة المريض أكثر من ردود الطبيب".
بالإضافة إلى ذلك، تم تصنيف استجابات ChatGPT أعلى بكثير في الجودة من ردود الأطباء: كانت الاستجابات الجيدة أو الجيدة جدًا أعلى 3.6 مرة لـ ChatGPT من الأطباء (الأطباء 22.1٪ مقابل ChatGPT 78.5٪)، وكانت الردود أيضًا أكثر تعاطفًا: كانت الردود الوجدانية أو المتعاطفة جدًا 9.8 مرة أعلى لـ ChatGPT مقارنة بالأطباء (الأطباء 4.6٪ مقابل ChatGPT 45.1٪).
أضاف الدكتور آرون جودمان، الأستاذ المساعد في كلية الطب بجامعة كاليفورنيا في سان فرانسيسكو والمؤلف المشارك للدراسة ، "لم أتخيل مطلقًا قول هذا ، لكن ChatGPT هي وصفة أرغب في إعطائها إلى صندوق الوارد الخاص بي. ستغير الأداة الطريقة التي أدعم بها مرضاي ".