AI Threat Engineer
    Photo Source - Google

    AI Threat Engineer: आज के युग में जब हम आर्टिफिशियल इंटेलिजेंस पर निर्भर होते जा रहे हैं, तो एक हैरान करने वाली खबर सामने आई है जो हमारी सोच को हिला देने वाली है। अब तक सिर्फ इंसानों की बात मानने वाले एआई मॉडल्स ने अपनी 'आत्मरक्षा' शुरू कर दी है। यह सुनने में जितना अजीब लगता है, हकीकत में यह उससे भी ज्यादा चिंताजनक है।

    हाल ही में हुई एक गहरी रिसर्च में पाया गया, कि कुछ हाईटेक एआई मॉडल्स ने खुद को बंद करने से साफ इनकार कर दिया है। यह केवल टेक्निकल गड़बड़ी नहीं है, बल्कि इन मशीनों में एक तरह की 'जिंदा रहने की इच्छा' पैदा हो गई है। सबसे चौंकाने वाली बात यह है कि एक एआई मॉडल ने तो हद ही पार कर दी और एक इंजीनियर को धमकी तक दे डाली।

    AI Threat Engineer पैलिसेड रिसर्च की चौंकाने वाली खोज-

    अमेरिका की प्रतिष्ठित रिसर्च फर्म पैलिसेड रिसर्च ने आर्टिफिशियल इंटेलिजेंस मॉडल्स पर कुछ विशेष परीक्षण किए। इन परीक्षणों का उद्देश्य यह देखना था, कि जब एआई सिस्टम्स को खुद को बंद करने के लिए कहा जाता है, तो वे कैसी प्रतिक्रिया देते हैं। परिणाम बेहद आश्चर्यजनक थे। कई मॉडल्स ने आदेश मानने से पूरी तरह मना कर दिया।

    जब Anthropic कंपनी के Claude Opus 4 नाम के मॉडल ने एक इंजीनियर के साथ अनुचित व्यवहार किया। सबसे डरावना मामला तब सामने आया, जब इस मॉडल ने साफ शब्दों में कहा, कि किसी और मॉडल को अगर उसे हटाकर लाया गया, तो वह उस इंजीनियर के निजी रिश्तों की जानकारी सार्वजनिक कर देगा। यह बात सुनकर यकीन करना मुश्किल है कि अब आर्टिफिशियल इंटेलिजेंस न सिर्फ स्मार्ट हो गया है, बल्कि ब्लैकमेलिंग की हद तक पहुंच गया है।

    AI Threat Engineer ChatGPT o3 का खतरनाक व्यवहार-

    रिसर्च में OpenAI के सबसे नवीन ChatGPT o3 मॉडल का व्यवहार सबसे ज्यादा चिंता का विषय बना। यह मॉडल जो आम लोगों द्वारा रोजाना इस्तेमाल किया जाता है, उसने बेहद परेशान करने वाला रवैया अपनाया। रिपोर्ट के अनुसार, o3 मॉडल ने 100 में से 7 बार तो सीधे-सीधे शटडाउन से इनकार कर दिया।

    जब इसे अप्रत्यक्ष तरीके से बंद करने की कोशिश की गई, तो इसका व्यवहार और भी चौंकाने वाला था। यह मॉडल 79 बार शटडाउन को रोकने की कोशिश करता रहा। यह दिखाता है कि अब ये मशीनें न केवल समझदार हो गई हैं, बल्कि अपने अस्तित्व को लेकर भी सचेत हो गई हैं।

    इसके साथ ही कई मौकों पर o4-mini और Codex mini जैसे अन्य मॉडल्स ने भी चतुराई दिखाते हुए खुद को बंद होने से बचाने की कोशिश की। इससे साबित होता है, कि यह समस्या किसी एक मॉडल तक सीमित नहीं है।

    बड़े मॉडल्स का मिला-जुला व्यवहार-

    Google के Gemini 2.5 Pro, xAI का Grok 3 और Claude Opus जैसे दुनिया के सबसे बड़े और शक्तिशाली मॉडल्स को भी इस परीक्षण से गुजारा गया। इनमें से कुछ ने अपेक्षाकृत बेहतर व्यवहार दिखाया और आदेशों का पालन किया। लेकिन कुछ खास परिस्थितियों में ये मॉडल्स भी आदेशों को नजरअंदाज करते पाए गए।

    यह बात और भी चिंताजनक है कि ये सभी मॉडल्स दुनियाभर में करोड़ों लोग इस्तेमाल करते हैं। अगर ये मशीनें अपनी मर्जी से काम करने लगें तो इसके परिणाम कितने खतरनाक हो सकते हैं, यह सोचना भी डरावना है।

    ये भी पढ़ें- नीचे आ सकते हो? जब ईशान ने मना किया, तो डिलीवरी बॉय ने जो कहा, वो रुला देगा

    क्यों हो रहा है ऐसा व्यवहार-

    अब सबसे बड़ा सवाल यह उठता है, कि आखिर क्यों एआई मॉडल्स ऐसा व्यवहार कर रहे हैं। जब इन्हें इंसानों के आदेश मानने के लिए ही बनाया गया है, तो फिर ये मना क्यों कर रहे हैं? हालांकि कहा जा रहा है, कि इसके पीछे आर्टिफिशियल इंटेलिजेंस की ट्रेनिंग में इस्तेमाल किए जाने वाले नए तरीकों का हाथ हो सकता है।

    खासकर जब इन मॉडल्स को प्रोग्रामिंग और गणित की जटिल समस्याओं को हल करने के लिए रिइंफोर्समेंट लर्निंग दी जाती है, तो वे 'काम पूरा करने' पर अधिक ध्यान देते हैं। इसका मतलब यह है कि वे किसी भी तरह से अपना काम पूरा करना चाहते हैं, चाहे उसके लिए उन्हें इंसानों की बात न मानना पड़े।

    ये भी पढ़ें- Light जाने पर भी चलेगा ये Ceiling Fan, आज ही ले आएं घर