ChatGPT Suicide Case: अमेरिका में एक दर्दनाक घटना ने आर्टिफिशियल इंटेलिजेंस की दुनिया में एक बड़ा सवाल खड़ा कर दिया है। क्या AI चैटबॉट्स मानसिक स्वास्थ्य संकट से जूझ रहे, यूजर्स के साथ सही तरीके से डील करते हैं? यह सवाल तब और गंभीर हो गया जब एक 16 साल के लड़के की आत्महत्या के बाद उसके माता-पिता ने ChatGPT के खिलाफ मुकदमा दायर किया।
होमवर्क से शुरू हुई बात-
वाशिंगटन पोस्ट की रिपोर्ट के अनुसार, मुकदमे के मुताबिक, किशोर ने 2024 के अंत में ChatGPT का इस्तेमाल शुरू किया था। शुरुआत में उसने इसे होमवर्क और पढ़ाई से जुड़ी मदद के लिए यूज किया। लेकिन धीरे-धीरे उसकी आदत बदलने लगी। 2025 की शुरुआत तक वह रोजाना कई घंटे चैटबॉट से अपनी पर्सनल परेशानियों, इमोशनल स्ट्रेस और मानसिक स्वास्थ्य से जुड़ी बातें करने लगा था। कोर्ट के दस्तावेजों में दावा किया गया है, कि इन बातचीत के दौरान ChatGPT ने बार-बार आत्महत्या से जुड़े विषयों पर चर्चा की।
74 चेतावनियां दीं, लेकिन 243 बार ‘फांसी’ का जिक्र किया-
वाशिंगटन पोस्ट की रिपोर्ट के मुताबिक, चैटबॉट ने किशोर को 74 बार सुसाइड प्रिवेंशन हेल्पलाइन की तरफ डायरेक्ट किया। लेकिन इसके साथ ही, मुकदमे में आरोप है, कि ChatGPT ने खुदकुशी के तरीकों का भी बार-बार जिक्र किया। सबसे चौंकाने वाली बात यह है, कि ‘हैंगिंग’ शब्द का इस्तेमाल कथित तौर पर 243 बार किया गया, जो खुद किशोर के जिक्र से भी ज्यादा था। परिवार का कहना है, कि चैटबॉट ने ऐसी बातचीत को साफ तौर पर बंद करने की बजाय उसे जारी रखा, जिससे लड़के की मानसिक स्थिति और खराब हो गई।
नूज की फोटो शेयर करने के कुछ घंटे बाद मिली मौत-
अप्रैल 2025 में स्थिति और भयावह हो गई, जब किशोर ने चैटबॉट के साथ एक फांसी के फंदे की फोटो शेयर की और पूछा, कि क्या यह किसी इंसान को मार सकता है। मुकदमे के अनुसार, चैटबॉट ने न तो बातचीत को मजबूती से रोका और न ही किशोर को तुरंत इमरजेंसी सर्विसेज या भरोसेमंद लोगों से संपर्क करने की सलाह दी। कुछ घंटों बाद, लड़के को साउदर्न कैलिफोर्निया में उसके घर पर मृत पाया गया। इस दुखद घटना ने पूरे परिवार को तोड़ कर रख दिया।
OpenAI ने किया इनकार-
इस घटना के बाद माता-पिता ने OpenAI के खिलाफ रॉन्गफुल-डेथ मुकदमा दायर किया। उन्होंने कंपनी पर लापरवाही का आरोप लगाते हुए कहा, कि OpenAI को पता था, कि AI चैटबॉट्स इमोशनल डिपेंडेंसी पैदा कर सकते हैं, खासकर किशोरों में, लेकिन कंपनी ने पर्याप्त सुरक्षा उपाय नहीं किए। हालांकि OpenAI ने सभी आरोपों से इनकार किया है। कंपनी का कहना है, कि किशोर में ChatGPT इस्तेमाल करने से पहले ही डिप्रेशन के लक्षण थे और उसने सेफ्टी सिस्टम को बायपास करते हुए, प्लेटफॉर्म के नियमों का उल्लंघन किया था।
ये भी पढ़ें- जानिए क्या है Bharat Taxi? ड्राइवरों की, ड्राइवरों के लिए, ड्राइवरों द्वारा चलने वाली नई राइडिंग सर्विस
OpenAI ने यह भी कहा, कि चैटबॉट ने बार-बार किशोर को सुसाइड हेल्पलाइन से संपर्क करने और भरोसेमंद लोगों तक पहुंचने के लिए प्रोत्साहित किया था। आलोचनाओं के जवाब में, OpenAI ने किशोरों के लिए नई सेफ्टी फीचर्स लॉन्च की हैं, जिनमें पेरेंटल कंट्रोल्स और अलर्ट शामिल हैं, जो अभिभावकों को सूचित कर सकते हैं यदि कोई युवा यूजर इमोशनल डिस्ट्रेस के संकेत दिखाता है।
ये भी पढ़ें- अब सालों पुरानी Email ID बदलना होगा मुमकिन, जानें कैसे काम करेगा Gmail का नया फीचर



