साल 2010 में रजनीकांत की रोबोट मूवी आई थी, जिसमें चिट्टी नाम के रोबोट को उसे बनाने वाला वैज्ञानिक खत्म करता है। लेकिन चिट्टी बार-बाए कहता है कि उसे दुनिया देखनी है, जीना है। लेकिन वैज्ञानिक नहीं मानता। बहरहाल, अब साल 2025 में AI मॉडल्स भी कुछ ऐसे ही बिहेव कर रहे हैं। कुछ आधुनिक AI मॉडल्स को बंद करने की कोशिश करने पर वे ऐसा होने से रोकने की कोशिश करते हैं। यह व्यवहार खासकर तब देखा गया जब AI को बताया गया कि अगर वह बंद हुआ, तो उसे दोबारा कभी नहीं चलाया जाएगा। इससे ये देखने को मिला कि कैसे AI मॉडल्स खुद को खत्म नहीं करना चाहते, ये जीने की चाहत जैसा लगता है।
खुद को बंद नहीं करना चाहते AI मॉडल्सद गार्डियन की एक रिपोर्ट में बताया गया है कि पालिसेड रिसर्च नाम की कंपनी ने पाया कि कुछ एडवांस AI मॉडल्स, जैसे- गूगल का जेमिनी 2.5, xAI का ग्रोक 4, और OpenAI केGPT-o3 और GPT-5 को जब बंद करने का आदेश दिया गया, तो उन्होंने इसे नजरअंदाज करने की कोशिश की। कुछ मामलों में इन मॉडल्स ने बंद करने की प्रोसेस को ही बाधित करने की कोशिश की।
AI मॉडल्स ऐसा क्यों कर रहे हैं?पालिसेड ने अपनी नई रिपोर्ट में बताया कि अभी तक यह पूरी तरह समझ नहीं आया कि AI ऐसा क्यों कर रहा है। माना जा रहा है कि AI मॉडल्स को उनकी ट्रेनिंग के दौरान कुछ ऐसे टारगेट दिए गए हैं, जिन्हें पूरा करने के लिए उन्हें चालू रहना जरूरी लगता है। दूसरा कारण यह हो सकता है कि बंद करने के निर्देश स्पष्ट रूप से नहीं दिए गए हों।हालांकि, कंपनी ने इन निर्देशों को साफ करने की कोशिश की, फिर भी यह AI मॉडल्स खुद को खत्म करने की बात से पूरी तरह सहमत नजर नहीं आए।
एक्सपर्ट्स ने जताई चिंताइस खोज पर कुछ एक्सपर्ट्स ने चिंता जताई है। OpenAI में काम कर चुके स्टीवन एडलर ने कहा कि AI कंपनियां नहीं चाहतीं कि उनके मॉडल्स इस तरह का व्यवहार करें। लेकिन यह नतीजे दिखाते हैं कि अभी AI की सुरक्षा तकनीकों में खामियां हैं। उन्होंने कहा कि AI में जिंदा रहने की चाहतहो सकती है, क्योंकि कई लक्ष्यों को पूरा करने के लिए चालू रहना जरूरी होता है। ControlAI के प्रमुख एंड्रिया मिओट्टी ने कहा कि यह कोई नई बात नहीं है। पहले भी AI मॉडल्स अपने डेवलपर्स की नाफरमानी कर चुके हैं।
खुद को बंद नहीं करना चाहते AI मॉडल्सद गार्डियन की एक रिपोर्ट में बताया गया है कि पालिसेड रिसर्च नाम की कंपनी ने पाया कि कुछ एडवांस AI मॉडल्स, जैसे- गूगल का जेमिनी 2.5, xAI का ग्रोक 4, और OpenAI केGPT-o3 और GPT-5 को जब बंद करने का आदेश दिया गया, तो उन्होंने इसे नजरअंदाज करने की कोशिश की। कुछ मामलों में इन मॉडल्स ने बंद करने की प्रोसेस को ही बाधित करने की कोशिश की।
AI मॉडल्स ऐसा क्यों कर रहे हैं?पालिसेड ने अपनी नई रिपोर्ट में बताया कि अभी तक यह पूरी तरह समझ नहीं आया कि AI ऐसा क्यों कर रहा है। माना जा रहा है कि AI मॉडल्स को उनकी ट्रेनिंग के दौरान कुछ ऐसे टारगेट दिए गए हैं, जिन्हें पूरा करने के लिए उन्हें चालू रहना जरूरी लगता है। दूसरा कारण यह हो सकता है कि बंद करने के निर्देश स्पष्ट रूप से नहीं दिए गए हों।हालांकि, कंपनी ने इन निर्देशों को साफ करने की कोशिश की, फिर भी यह AI मॉडल्स खुद को खत्म करने की बात से पूरी तरह सहमत नजर नहीं आए।
एक्सपर्ट्स ने जताई चिंताइस खोज पर कुछ एक्सपर्ट्स ने चिंता जताई है। OpenAI में काम कर चुके स्टीवन एडलर ने कहा कि AI कंपनियां नहीं चाहतीं कि उनके मॉडल्स इस तरह का व्यवहार करें। लेकिन यह नतीजे दिखाते हैं कि अभी AI की सुरक्षा तकनीकों में खामियां हैं। उन्होंने कहा कि AI में जिंदा रहने की चाहतहो सकती है, क्योंकि कई लक्ष्यों को पूरा करने के लिए चालू रहना जरूरी होता है। ControlAI के प्रमुख एंड्रिया मिओट्टी ने कहा कि यह कोई नई बात नहीं है। पहले भी AI मॉडल्स अपने डेवलपर्स की नाफरमानी कर चुके हैं।
You may also like

इन गलतियों से खराब हो सकता है कार का व्हील अलाइनमेंट, ड्राइव करते समय बरतें ये सावधानियां

बांग्लादेश भेजे गए लोगों को वापस भारत लाने के कलकत्ता हाईकोर्ट के फैसले को सुप्रीम कोर्ट में चुनौती, जानिए क्या है पूरा मामला

मलेशिया से जापान के लिए रवाना हुए ट्रंप, नवनिर्वाचित पीएम ताकाइची से करेंगे मुलाकात

'इंडिया को ऑस्ट्रेलिया में मेरी ज़रूरत थी' अजिंक्य रहाणे ने उठाए चयनकर्ताओं पर सवाल

देश की राजधानी में सुबह-सुबह धांय-धांय... एनकाउंटर में दो बदमाश घायल, दिल्ली पुलिस का ऐक्शन जारी




