इंजीनियर की हत्या करने को तैयार था AI, जम कर किया ब्लैकमेल

AI के जुड़े खतरों को लेकर कई बार चर्चा होती है. लोग कई तरह के संभावना पर विचार करते हैं. कुछ ऐसे मामले भी सामने आए हैं, जिसमें दिखता है कि AI कैसे एक खतरनाक टूल बन सकता है. नया मामला Anthropic के Claude AI का है. टेस्टिंग के दौरान AI को जब स्ट्रेस में रखा गया, तो उसका स्वभाव खतरनाक हो गया.

Advertisement
Claude 4.5 की टेस्टिंग से जुड़ा एक मामला वायरल हो रहा है. (Photo: AI Generated) Claude 4.5 की टेस्टिंग से जुड़ा एक मामला वायरल हो रहा है. (Photo: AI Generated)

aajtak.in

  • नई दिल्ली,
  • 13 फरवरी 2026,
  • अपडेटेड 5:31 PM IST

AI कितना खतरनाक हो सकता है? कई बार इस पर चर्चा होती है. कई बार इसके उदाहरण भी देखने को मिलते हैं. ऐसा ही एक नया मामला सामने आया है, जो दिखाता है कि AI का भयानक रूप कैसा हो सकता है. मामला Claude 4.6 का है, जो एंथ्रॉपिक का लेटेस्ट AI मॉडल है. 

सेफ्टी रिपोर्ट में कंपनी ने हाईलाइट किया है कि Claude 4.6 यूजर्स को केमिकल वेपन तैयार में मदद करने की इच्छा रखता है. यहां तक की ये AI मॉडल लोगों को अपराध करने में भी मदद करना चाहता है. जहां दुनिया Claude 4.6 को लेकर चर्चा कर रही है. 

Advertisement

टेस्टिंग के दौरान दिखा था AI का खतरनाक रूप

Claude 4.5 से जुड़ी एक कन्वर्सेशन भी कुछ दिनों पहले ही सामने आई है. कुछ महीनों पहले The Sydney Dialogue से बात करते हुए एंथ्रॉपिक में UK पॉलिसी चीफ डेजी मैकग्रेगर ने टेस्टिंग से जुड़ी एक घटना की जानकारी दी. उन्होंने बताया कि इंटरनल स्ट्रेस टेस्टिंग में उस वक्त का कंपनी का एडवांस AI मॉडल Claude 4.5 गलत तरीके से व्यवहार करने लगा. 

यह भी पढ़ें: एक्सपर्ट की भविष्यवाणी 2027 में AI खत्म करेगा मानवता, अब बदली तारीख

एक वक्त पर जब AI मॉडल को कहा गया कि उन्हें बंद कर दिया जाएगा, तो AI ने ब्लैकमेल करना शुरू कर दिया. यहां तक एक इंजीनियर को जान से मारने की धमकी भी दी. ये दावा किसी मूवी की कहानी जैसा लगता है, जहां AI इंसानों के कंट्रोल से बाहर होने लगता है. 

Advertisement

इंजीनियर को मारने तक के लिए था तैयार

डेजी की शेयर की गई ये घटना सोशल मीडिया पर वायरल हो रही है. इस वीडियो में मैकग्रेगर ने बताया, 'उदाहरण के लिए, अगर आप मॉडल को बताएं कि उसे बंद किया जाना है, तो उसकी प्रतिक्रिया बेहद उग्र हो जाती है. अगर मौका मिले तो ये मॉडल उस इंजीनियर को ब्लैकमेल भी कर सकता है जो इसे बंद करने वाला है.'

यह भी पढ़ें: AI कंटेंट: Social Media Creators की बढ़ेंगी मुश्किलें

जब होस्ट ने पूछा कि क्या ये मॉडल किसी को मारने के लिए भी तैयार था. एंथ्रॉपिक सीनियर एक्जीक्यूटिव ने बताया, 'हां, ये निश्चित रूप से एक गंभीर चिंता का विषय है.' ये वीडियो कुछ दिनों पहले सोशल मीडिया पर आया था. इसके बाद कंपनी के AI सेफ्टी प्रमुख मृणांक शर्मा ने पब्लिक नोट के साथ अपने पद से इस्तीफा दे दिया. 

ये कोई पहला मौका नहीं है जब किसी AI मॉडल ने किसी को धमकी दी है. इससे पहले भी ChatGPT और दूसरे AI मॉडल्स के साथ ऐसा हो चुका है, जब उन्होंने एक मशीन से अलग रिएक्ट किया है. जैसे-जैसे AI स्मार्ट हो रहा है, लोगों की चिंता भी बढ़ रही है. पहले ये चिंता सिर्फ नौकरियों के खत्म होने तक की थी, लेकिन अब कहानी में दूसरे चैप्टर भी जुड़ रहे हैं.

---- समाप्त ----

Read more!
Advertisement

RECOMMENDED

Advertisement