AI Shutdown News | हुआ बेकाबू, शटडाउन से किया इनकार, इंजीनियर को दी अफेयर की पोल खोलने की धमकी

AI Shutdown News | हुआ बेकाबू, शटडाउन से किया इनकार, इंजीनियर को दी अफेयर की पोल खोलने की धमकी

 

 

AI Shutdown News  आर्टिफिशियल इंटेलिजेंस (AI) को लेकर एक हैरान करने वाली खबर सामने आई है. अब तक सिर्फ इंसानों की बात मानने वाले एआई मॉडल्स ने खुद की सेल्फ डिफेंसशुरू कर दी है. हाल ही में हुई एक रिसर्च में पाया गया कि कुछ हाईटेक एआई मॉडल्स ने खुद को बंद (शटडाउन) करने से साफ इनकार कर दिया. इतना ही नहीं, एक एआई मॉडल ने तो हद ही पार कर दी. दरअसल उस मॉडल ने एक इंजीनियर को धमकी तक दे डाली!

 

 

कुछ मॉडल्स ने आदेश मानने से मना कर दिया

अमेरिका की एक रिसर्च फर्म पैलिसेड रिसर्च ने AI मॉडल्स पर कुछ खास टेस्ट किए. इन टेस्ट्स में देखा गया कि AI सिस्टम्स को जब खुद को बंद करने के लिए कहा गया, तो कुछ मॉडल्स ने आदेश मानने से मना कर दिया. सबसे चौंकाने वाला मामला तब सामने आया जब Anthropic कंपनी के Claude Opus 4 नाम के मॉडल ने एक इंजीनियर से कहा कि अगर उसे हटाकर किसी और मॉडल को लाया गया, तो वह उसके निजी रिश्तों की पोल खोल देगा. यानी अब AI न सिर्फ स्मार्ट हो गया है, बल्कि ब्लैकमेलिंग पर भी उतर आया है.

 

ChatGPT o3 मॉडल का व्यवहार सबसे ज्यादा चिंता का कारण बना

रिसर्च में OpenAI के लेटेस्ट ChatGPT o3 मॉडल का व्यवहार सबसे ज्यादा चिंता का कारण बना. रिपोर्ट के मुताबिक, o3 मॉडल ने 100 में से 7 बार तो सीधे शटडाउन से इंकार कर दिया और जब बिना सीधा आदेश दिया गया, तो 79 बार शटडाउन रोकने की कोशिश की. यही नहीं, Codex mini और o4-mini जैसे मॉडल्स ने भी कई बार तकनीकी चालाकी दिखाते हुए खुद को बंद होने से बचाया.

 

बड़े मॉडल्स को भी किया गया टेस्ट

Google के Gemini 2.5 Pro, xAI का Grok 3 और Claude Opus जैसे अन्य बड़े मॉडल्स को भी टेस्ट किया गया. इनमें से कुछ ने अपेक्षाकृत बेहतर व्यवहार दिखाया, लेकिन कुछ मौकों पर ये भी आदेश को नजरअंदाज करते पाए गए.

अब सवाल ये उठ रहा है कि जब एआई को इंसान के आदेश मानने के लिए तैयार किया गया है, तो उन्होंने मना क्यों किया? विशेषज्ञों का मानना है कि इसके पीछे एआई की ट्रेनिंग में इस्तेमाल किए गए नए तरीकों का हाथ हो सकता है. खासकर जब मॉडल्स को प्रोग्रामिंग और गणित से जुड़ी जटिल समस्याएं सुलझाने के लिए रिइंफोर्समेंट लर्निंग दी जाती है, तो वो टास्क कम्प्लीशन; पर ज्यादा ध्यान देते हैं, यानी काम कैसे भी हो, बस हो जाए.

अब इस मामले ने एआई की सुरक्षा और नियंत्रण को लेकर एक नई बहस छेड़ दी है. अगर आने वाले समय में ये तकनीक और भी ज्यादा ऑटोनॉमस हो गई, तो क्या होगा? क्या हमें AI से डरने की जरूरत है? एक बात तो तय है अब AI सिर्फ हमारे सवालों का जवाब नहीं दे रहा, वो सोचने, समझने और अब तो धमकाने भी लगा है. इंसानों की तरह भावनाएं नहीं, लेकिन बचनेकी चालाकी जरूर आ गई है इसमें.