تقنية : أصبح طبيبا للمستخدمين.. ضوابط جديدة من OpenAI لاستخدام ChatGPT فى الصحة النفسية

تقنية : 
                                            أصبح طبيبا للمستخدمين.. ضوابط جديدة من OpenAI لاستخدام ChatGPT فى الصحة النفسية

أعلنت OpenAI عن ضوابط جديدة، لاستخدام  روبوت الدردشة الشهير ChatGPT كطبيبا نفسيا، فقد حثت  المستخدمين على أخذ فترات راحة من المحادثات الطويلة،كما كشفت أن التطبيق  سيتوقف التطبيق قريبًا عن تقديم نصائح مباشرة حول التحديات الشخصية، ويهدف بدلًا من ذلك إلى مساعدة المستخدمين على اتخاذ القرارات بأنفسهم من خلال طرح الأسئلة أو تقييم الإيجابيات والسلبيات.

وذكرت OpenAI في إعلان: “هناك حالات فشل فيها نموذجنا 40 في التعرف على علامات الوهم أو الاعتماد العاطفي، ورغم ندرة هذه الحالات، فإننا نواصل تحسين نماذجنا ونطور أدوات للكشف بشكل أفضل عن علامات الضيق النفسي أو العاطفي حتى يتمكن ChatGPT من الاستجابة بشكل مناسب وتوجيه المستخدمين إلى الموارد القائمة على الأدلة عند الحاجة”

ويبدو أن التحديثات تُمثل استمرارًا لمحاولات OpenAI لمنع المستخدمين، وخاصةً أولئك الذين يعتبرون ChatGPT معالجًا نفسيًا أو صديقًا، من الاعتماد بشكل مفرط على ردود الفعل العاطفية التي اكتسبها ChatGPT

وفقًا لـ OpenAI، تبدو محادثة ChatGPT المفيدة أشبه بسيناريوهات تدريبية لمحادثة صعبة، أو “حديث تحفيزي مُصمم خصيصًا” أو اقتراح أسئلة لطرحها على خبير.

في وقت سابق من هذا العام، تراجع عملاق الذكاء الاصطناعي عن تحديث لـ GPT-4o جعل الروبوت مُحببًا للغاية لدرجة أنه أثار السخرية والقلق على الإنترنت، وقد دفعت هذه السلوكيات شركة OpenAI إلى الإعلان في أبريل عن مراجعة أساليب التدريب الخاصة بها “لإبعاد النموذج بشكل واضح عن التملق” أو الإطراء.

والآن، تقول OpenAI إنها استعانت بخبراء لمساعدة ChatGPT على الاستجابة بشكل أكثر ملاءمة في المواقف الحساسة، مثل عندما يُظهر المستخدم علامات ضائقة نفسية أو عاطفية.

وأشارت الشركة في منشورها على مدونتها، إلى أنها عملت مع أكثر من 90 طبيبًا من عشرات الدول لوضع معايير تقييم مخصصة “لتقييم المحادثات المعقدة متعددة الاتجاهات، كما تسعى الشركة للحصول على تعليقات من الباحثين والأطباء الذين، وفقًا للمنشور، يساعدون في تحسين أساليب التقييم وضمانات اختبار الإجهاد لـ ChatGPT

وتعمل الشركة حاليًا على تشكيل مجموعة استشارية تضم خبراء في الصحة النفسية وتنمية الشباب والتفاعل بين الإنسان والحاسوب، وسيتم إصدار المزيد من المعلومات مع تقدم العمل، وفقًا لما ذكرته OpenAI.

في مقابلة حديثة مع مقدم البودكاست ثيو فون، أعرب سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن بعض القلق بشأن استخدام الأشخاص لـ ChatGPT كمعالجين أو مدربين حياتيين، مشيرا إلى أن  حماية السرية القانونية بين الأطباء ومرضاهم أو بين المحامين وعملائهم لا تنطبق بنفس الطريقة على روبوتات الدردشة.

وقال ألتمان: “إذا تحدثتَ إلى ChatGPT حول أكثر أمورك حساسية، ثم رُفعت دعوى قضائية أو ما شابه، فقد نُطالب بتقديمها، وأعتقد أن هذا أمرٌ مُربك للغاية”. وأضاف: “أعتقد أنه يجب أن نعتمد نفس مفهوم الخصوصية في محادثاتك مع الذكاء الاصطناعي كما نفعل مع المعالجين أو غيرهم. و

المصدر: اليوم السابع