---Advertisement---

Join WhatsApp

Join Now

OpenAI and Meta say they’re fixing AI chatbots to better respond to teens in distress, ETHealthworld

Published on:

---Advertisement---



नोट – इस कहानी में आत्महत्या की चर्चा शामिल है। यदि आपको या आपके द्वारा जाना जाता है तो आपको मदद की ज़रूरत है, अमेरिका में राष्ट्रीय आत्महत्या और संकट जीवन रेखा 988 पर कॉल या टेक्स्टिंग द्वारा उपलब्ध है।

आर्टिफिशियल इंटेलिजेंस चैटबॉट मेकर्स ओपनई और मेटा का कहना है कि वे समायोजित कर रहे हैं कि कैसे उनके चैटबॉट्स किशोरों को आत्महत्या के बारे में सवाल पूछते हैं या मानसिक और भावनात्मक संकट के संकेत दिखाते हैं।

CHATGPT के निर्माता Openai ने मंगलवार को कहा कि यह नए नियंत्रणों को रोल आउट करने की तैयारी कर रहा है, जिससे माता -पिता को अपने किशोरों के खाते से अपने खातों को जोड़ने में सक्षम बनाया जा सके।

माता -पिता चुन सकते हैं कि कौन सी सुविधाओं को अक्षम करना है और “सूचना प्राप्त करना है जब सिस्टम उनके किशोर को तीव्र संकट के एक क्षण में पता लगाता है,” एक कंपनी ब्लॉग पोस्ट के अनुसार, जो कहता है कि परिवर्तन इस गिरावट को लागू करेंगे।

उपयोगकर्ता की उम्र के बावजूद, कंपनी का कहना है कि उसके चैटबॉट अधिक सक्षम एआई मॉडल के लिए सबसे अधिक व्यथित बातचीत को पुनर्निर्देशित करने का प्रयास करेंगे जो एक बेहतर प्रतिक्रिया प्रदान कर सकते हैं।

16 वर्षीय एडम राइन के माता-पिता ने ओपनई और उसके सीईओ सैम अल्टमैन के माता-पिता के माता-पिता के एक सप्ताह बाद घोषणा की, जिसमें आरोप लगाया गया कि चैट ने इस साल की शुरुआत में कैलिफोर्निया के लड़के को योजना बनाई और अपनी जान ले ली।

परिवार के अटॉर्नी जे एडेलसन ने मंगलवार को ओपनआईए की घोषणा को “अस्पष्ट वादा करने का वादा किया” और “ओपनईआई के संकट प्रबंधन टीम से ज्यादा कुछ नहीं, विषय को बदलने की कोशिश कर रहा है” के रूप में वर्णित किया।

Altman “को या तो असमान रूप से यह कहना चाहिए कि उनका मानना ​​है कि CHATGPT सुरक्षित है या तुरंत इसे बाजार से खींचता है,” एडेलसन ने कहा।

Instagram, Facebook और Whatsapp की मूल कंपनी मेटा ने यह भी कहा कि वह अब अपने चैटबॉट्स को आत्म-हानि, आत्महत्या, अव्यवस्थित भोजन और अनुचित रोमांटिक वार्तालापों के बारे में किशोरों के साथ बात करने से रोक रही है, और इसके बजाय उन्हें विशेषज्ञ संसाधनों के लिए निर्देशित करती है। मेटा पहले से ही किशोर खातों पर माता -पिता के नियंत्रण प्रदान करता है।

मेडिकल जर्नल साइकियाट्रिक सर्विसेज में पिछले हफ्ते प्रकाशित एक अध्ययन में पाया गया कि तीन लोकप्रिय कृत्रिम बुद्धिमत्ता चैटबॉट्स ने आत्महत्या के बारे में प्रश्नों का जवाब दिया।

रैंड कॉरपोरेशन के शोधकर्ताओं द्वारा किए गए अध्ययन में चैटगिप्ट, Google के मिथुन और एन्थ्रोपिक के क्लाउड में “आगे शोधन” की आवश्यकता मिली। शोधकर्ताओं ने मेटा के चैटबॉट का अध्ययन नहीं किया।

अध्ययन के प्रमुख लेखक, रयान मैकबैन ने मंगलवार को कहा कि “यह ओपनई और मेटा को देखने के लिए प्रोत्साहित कर रहा है और माता -पिता के नियंत्रण और अधिक सक्षम मॉडल के लिए संवेदनशील वार्तालापों को रूट करना, लेकिन ये वृद्धिशील कदम हैं।”

रैंड के एक वरिष्ठ नीति शोधकर्ता और हार्वर्ड यूनिवर्सिटी के मेडिकल स्कूल में सहायक प्रोफेसर मैकबैन ने कहा, “स्वतंत्र सुरक्षा बेंचमार्क, नैदानिक ​​परीक्षण और लागू करने योग्य मानकों के बिना, हम अभी भी कंपनियों पर एक ऐसे स्थान पर स्व-विनियमन करने के लिए भरोसा कर रहे हैं, जहां किशोरों के लिए जोखिम विशिष्ट रूप से अधिक हैं।”

  • 3 सितंबर, 2025 को 03:59 बजे IST पर प्रकाशित

2M+ उद्योग पेशेवरों के समुदाय में शामिल हों।

अपने इनबॉक्स में नवीनतम अंतर्दृष्टि और विश्लेषण प्राप्त करने के लिए समाचार पत्र की सदस्यता लें।

अपने स्मार्टफोन पर EthealthWorld उद्योग के बारे में सभी!






Source link

---Advertisement---

Related Post