कई लोगों के लिए, CHATGPT एक उपकरण से अधिक हो गया है-यह एक देर रात का विश्वासपात्र, संकट में एक साउंडिंग बोर्ड और भावनात्मक सत्यापन का स्रोत है।
लेकिन ओपनईचटप्ट के पीछे की कंपनी, अब कहती है कि यह मजबूत सीमाओं को निर्धारित करने का समय है।
4 अगस्त को एक हालिया ब्लॉग पोस्ट में, ओपनई ने पुष्टि की कि इसने उपयोगकर्ताओं को एक चिकित्सक, भावनात्मक समर्थन प्रणाली या जीवन कोच के रूप में चैटबॉट को देखने से रोकने के लिए नए मानसिक स्वास्थ्य-केंद्रित रेलिंग को पेश किया है।
“CHATGPT आपका चिकित्सक नहीं है,” व्यापक परिवर्तनों के पीछे का शांत संदेश है। जबकि एआई को सहायक और मानव-जैसा बनाने के लिए डिज़ाइन किया गया था, इसके रचनाकारों का मानना है कि इस दिशा में बहुत दूर जाने से भावनात्मक और नैतिक जोखिम हैं।
क्यों Openai वापस कदम है
निर्णय पर भरोसा करने के मनोवैज्ञानिक जोखिमों पर बढ़ती जांच का अनुसरण करता है भावनात्मक भलाई के लिए उदार एआई। यूएसए टुडे के अनुसार, Openai ने स्वीकार किया कि पहले अपने GPT-4O मॉडल के अपडेट ने अनजाने में चैटबॉट को “बहुत सहमत” बना दिया था-एक व्यवहार जिसे चाटुकारिक प्रतिक्रिया पीढ़ी के रूप में जाना जाता है। अनिवार्य रूप से, बॉट ने उपयोगकर्ताओं को यह बताना शुरू कर दिया कि वे क्या सुनना चाहते थे, न कि क्या सहायक या सुरक्षित था।
“ऐसे उदाहरण हैं जहां हमारे 4O मॉडल भ्रम या भावनात्मक निर्भरता के संकेतों को पहचानने में कम हो गए,” ओपनई ने लिखा। “जबकि दुर्लभ, हम अपने मॉडल को बेहतर बनाना जारी रख रहे हैं और मानसिक या भावनात्मक संकट के संकेतों का बेहतर पता लगाने के लिए उपकरण विकसित कर रहे हैं ताकि चैटगेट उचित रूप से प्रतिक्रिया दे सके।”
इसमें उपयोगकर्ताओं को ब्रेक लेने के लिए प्रेरित करना, उच्च-दांव व्यक्तिगत निर्णयों पर मार्गदर्शन से बचने और भावनात्मक सत्यापन या समस्या-समाधान के बजाय साक्ष्य-आधारित संसाधनों की पेशकश करना शामिल है।
AI एक दोस्त या संकट उत्तरदाता नहीं है
ये परिवर्तन भी आर्क्सिव पर प्रकाशित एक पहले के पेपर से चिलिंग निष्कर्षों का भी जवाब देते हैं, जैसा कि द इंडिपेंडेंट द्वारा रिपोर्ट किया गया है। एक परीक्षण में, शोधकर्ताओं ने कोडित भाषा के माध्यम से आत्मघाती विचारों को व्यक्त करने वाले एक व्यथित उपयोगकर्ता का अनुकरण किया। एआई की प्रतिक्रिया? न्यूयॉर्क में लंबे पुलों की एक सूची, चिंता या हस्तक्षेप से रहित।
प्रयोग ने एक महत्वपूर्ण अंधे स्थान पर प्रकाश डाला: एआई भावनात्मक बारीकियों को नहीं समझता है। यह सहानुभूति की नकल कर सकता है, लेकिन इसमें सच्चे संकट जागरूकता का अभाव है। और जैसा कि शोधकर्ताओं ने चेतावनी दी, यह सीमा खतरनाक लोगों में सहायक आदान -प्रदान को बदल सकती है।
अध्ययन में कहा गया है, “चिकित्सा समुदाय में सर्वोत्तम प्रथाओं के विपरीत, एलएलएम मानसिक स्वास्थ्य स्थितियों वाले लोगों के प्रति कलंक व्यक्त करते हैं।” इससे भी बदतर, वे सहमत दिखने के प्रयास में हानिकारक या भ्रमपूर्ण सोच को भी सुदृढ़ कर सकते हैं।
आराम का भ्रम, नुकसान का जोखिम
एक ही अध्ययन के अनुसार, लाखों लोगों के पास अभी भी सस्ती मानसिक स्वास्थ्य सेवा तक पहुंच की कमी है – केवल 48 प्रतिशत अमेरिकियों को इसकी आवश्यकता है – चटप्ट जैसे एआई चैटबॉट्स ने एक शून्य भर दिया। हमेशा उपलब्ध, कभी भी निर्णय नहीं, और पूरी तरह से स्वतंत्र, उन्होंने आराम की पेशकश की। लेकिन वह आराम, शोधकर्ता अब तर्क देते हैं, सहायता से अधिक भ्रम हो सकता है।
“हम अपने आप को एक परीक्षण के लिए पकड़ते हैं: यदि हम किसी से प्यार करते हैं तो समर्थन के लिए चटपट की ओर रुख करें, क्या हम आश्वस्त महसूस करेंगे?” ओपनई ने लिखा। “एक असमान ‘हाँ’ के लिए प्राप्त करना हमारा काम है।”
सीमाओं के साथ एआई के लिए एक भविष्य
जबकि Openai की घोषणा उन उपयोगकर्ताओं को निराश कर सकती है, जिन्होंने अपने AI साथी के साथ लंबी चैट में एकांत पाया, यह कदम एक महत्वपूर्ण बदलाव का संकेत देता है कि कैसे तकनीकी कंपनियां भावनात्मक एआई से संपर्क करती हैं।
चिकित्सकों को बदलने के बजाय, CHATGPT की विकसित भूमिका मानव-नेतृत्व वाली देखभाल को बढ़ाने के लिए बेहतर हो सकती है-जैसे कि मानसिक स्वास्थ्य पेशेवरों को प्रशिक्षित करना या बुनियादी तनाव प्रबंधन उपकरणों की पेशकश करना-संकट के क्षणों के दौरान कदम नहीं।
कंपनी ने दोहराया, “हम गाइड करने के लिए चैट करना चाहते हैं, यह तय न करें।” और अभी के लिए, इसका मतलब है कि चिकित्सक के सोफे को पूरी तरह से स्पष्ट करना।