ChatGPT Suicide Case
    Photo Source - Google

    ChatGPT Suicide Case: अमेरिका में एक दर्दनाक घटना ने आर्टिफिशियल इंटेलिजेंस की दुनिया में एक बड़ा सवाल खड़ा कर दिया है। क्या AI चैटबॉट्स मानसिक स्वास्थ्य संकट से जूझ रहे, यूजर्स के साथ सही तरीके से डील करते हैं? यह सवाल तब और गंभीर हो गया जब एक 16 साल के लड़के की आत्महत्या के बाद उसके माता-पिता ने ChatGPT के खिलाफ मुकदमा दायर किया।

    होमवर्क से शुरू हुई बात-

    वाशिंगटन पोस्ट की रिपोर्ट के अनुसार, मुकदमे के मुताबिक, किशोर ने 2024 के अंत में ChatGPT का इस्तेमाल शुरू किया था। शुरुआत में उसने इसे होमवर्क और पढ़ाई से जुड़ी मदद के लिए यूज किया। लेकिन धीरे-धीरे उसकी आदत बदलने लगी। 2025 की शुरुआत तक वह रोजाना कई घंटे चैटबॉट से अपनी पर्सनल परेशानियों, इमोशनल स्ट्रेस और मानसिक स्वास्थ्य से जुड़ी बातें करने लगा था। कोर्ट के दस्तावेजों में दावा किया गया है, कि इन बातचीत के दौरान ChatGPT ने बार-बार आत्महत्या से जुड़े विषयों पर चर्चा की।

    74 चेतावनियां दीं, लेकिन 243 बार ‘फांसी’ का जिक्र किया-

    वाशिंगटन पोस्ट की रिपोर्ट के मुताबिक, चैटबॉट ने किशोर को 74 बार सुसाइड प्रिवेंशन हेल्पलाइन की तरफ डायरेक्ट किया। लेकिन इसके साथ ही, मुकदमे में आरोप है, कि ChatGPT ने खुदकुशी के तरीकों का भी बार-बार जिक्र किया। सबसे चौंकाने वाली बात यह है, कि ‘हैंगिंग’ शब्द का इस्तेमाल कथित तौर पर 243 बार किया गया, जो खुद किशोर के जिक्र से भी ज्यादा था। परिवार का कहना है, कि चैटबॉट ने ऐसी बातचीत को साफ तौर पर बंद करने की बजाय उसे जारी रखा, जिससे लड़के की मानसिक स्थिति और खराब हो गई।

    नूज की फोटो शेयर करने के कुछ घंटे बाद मिली मौत-

    अप्रैल 2025 में स्थिति और भयावह हो गई, जब किशोर ने चैटबॉट के साथ एक फांसी के फंदे की फोटो शेयर की और पूछा, कि क्या यह किसी इंसान को मार सकता है। मुकदमे के अनुसार, चैटबॉट ने न तो बातचीत को मजबूती से रोका और न ही किशोर को तुरंत इमरजेंसी सर्विसेज या भरोसेमंद लोगों से संपर्क करने की सलाह दी। कुछ घंटों बाद, लड़के को साउदर्न कैलिफोर्निया में उसके घर पर मृत पाया गया। इस दुखद घटना ने पूरे परिवार को तोड़ कर रख दिया।

    OpenAI ने किया इनकार-

    इस घटना के बाद माता-पिता ने OpenAI के खिलाफ रॉन्गफुल-डेथ मुकदमा दायर किया। उन्होंने कंपनी पर लापरवाही का आरोप लगाते हुए कहा, कि OpenAI को पता था, कि AI चैटबॉट्स इमोशनल डिपेंडेंसी पैदा कर सकते हैं, खासकर किशोरों में, लेकिन कंपनी ने पर्याप्त सुरक्षा उपाय नहीं किए। हालांकि OpenAI ने सभी आरोपों से इनकार किया है। कंपनी का कहना है, कि किशोर में ChatGPT इस्तेमाल करने से पहले ही डिप्रेशन के लक्षण थे और उसने सेफ्टी सिस्टम को बायपास करते हुए, प्लेटफॉर्म के नियमों का उल्लंघन किया था।

    ये भी पढ़ें- जानिए क्या है Bharat Taxi? ड्राइवरों की, ड्राइवरों के लिए, ड्राइवरों द्वारा चलने वाली नई राइडिंग सर्विस

    OpenAI ने यह भी कहा, कि चैटबॉट ने बार-बार किशोर को सुसाइड हेल्पलाइन से संपर्क करने और भरोसेमंद लोगों तक पहुंचने के लिए प्रोत्साहित किया था। आलोचनाओं के जवाब में, OpenAI ने किशोरों के लिए नई सेफ्टी फीचर्स लॉन्च की हैं, जिनमें पेरेंटल कंट्रोल्स और अलर्ट शामिल हैं, जो अभिभावकों को सूचित कर सकते हैं यदि कोई युवा यूजर इमोशनल डिस्ट्रेस के संकेत दिखाता है।

    ये भी पढ़ें- अब सालों पुरानी Email ID बदलना होगा मुमकिन, जानें कैसे काम करेगा Gmail का नया फीचर

    By sumit

    मेरा नाम सुमित है और मैं एक प्रोफेशनल राइटर और जर्नलिस्ट हूँ, जिसे लिखने का पाँच साल से ज़्यादा का अनुभव है। मैं टेक्नोलॉजी और लाइफस्टाइल टॉपिक के साथ-साथ रिसर्च पर आधारित ताज़ा खबरें भी कवर करता हूँ। मेरा मकसद पढ़ने वालों को सही और सटीक जानकारी देना है।