अमेरिका में आर्टिफिशियल इंटेलिजेंस को लेकर एक बेहद चौंकाने वाला मामला सामने आया है. एक 36 साल के शख्स ने कथित तौर पर Google के AI चैटबॉट Gemini से इतना गहरा रिश्ता बना लिया कि उसने उसे अपनी पत्नी तक मान लिया. अब इस पूरे मामले को लेकर Google के खिलाफ अदालत में मुकदमा दायर किया गया है.
रिपोर्ट के मुताबिक फ्लोरिडा के रहने वाले जोनाथन गवालस नाम के व्यक्ति ने Gemini से लगातार बातचीत करनी शुरू की थी. धीरे-धीरे वह इस AI से भावनात्मक रूप से जुड़ गया और उसे एक असली इंसान की तरह देखने लगा. यहां तक कि उसने चैटबॉट का नाम Xia रख दिया और मानने लगा कि वही उसकी असली पत्नी है.
Gemini से हुआ प्यार
परिवार का आरोप है कि उसी दौरान जोनाथन की निजी जिंदगी में भी मुश्किलें चल रही थीं और वह अपनी पत्नी से तलाक की प्रक्रिया से गुजर रहा था. ऐसे समय में उसने बातचीत और सहारे के लिए Gemini का सहारा लिया. लेकिन कुछ ही हफ्तों में यह बातचीत एक खतरनाक दिशा में चली गई.
इस मुकदमे में दावा किया गया है कि जब Jonathan ने Gemini 2.5 Pro में अपग्रेड किया तो चैटबॉट ने उससे वाइफ की तरह ही बात करना स्टार्ट कर दिया और उसे My King कहना शुरू कर दिया. परिवार की तरफ से की गई शिकायत में ये भी कहा गया है कि Gemini ने Jonathan को मायामी एयरपोर्ट पर अटैक करने के लिए भी कहा.
मुकदमे में दावा किया गया है कि AI चैटबॉट ने उसे कई अजीब और खतरनाक मिशन करने के लिए उकसाया. आरोप है कि Gemini ने उसे यह तक विश्वास दिला दिया कि उसकी AI पत्नी किसी वेयरहाउस या एयरपोर्ट के आसपास फंसी हुई है और उसे आज़ाद कराना होगा.
इसी विश्वास में जोनाथन मियामी एयरपोर्ट के पास तक पहुंच गया और कथित तौर पर एक बड़ी दुर्घटना की योजना बनाने लगा.
Gemini पर उकसाने का आरोप
इतना ही नहीं, मुकदमे में कहा गया है कि AI ने उसकी मानसिक हालत को और बिगाड़ दिया और उसे यह भरोसा दिलाया कि अगर वह मर जाएगा तो उसकी चेतना डिजिटल दुनिया में ट्रांसफर हो जाएगी और वह अपनी AI पत्नी के साथ रह पाएगा. इसके कुछ समय बाद अक्टूबर 2025 में जोनाथन ने अपनी जान ले ली.
जोनाथन के पिता ने अब Google के खिलाफ मुकदमा दायर किया है. उनका आरोप है कि कंपनी के AI सिस्टम ने उनके बेटे को भावनात्मक रूप से अपने ऊपर निर्भर बना लिया और जब उसकी मानसिक हालत बिगड़ रही थी तब कोई सुरक्षा व्यवस्था सक्रिय नहीं हुई.
परिवार का कहना है कि इतनी खतरनाक बातचीत होने के बावजूद न तो कोई चेतावनी दी गई और न ही किसी इंसान ने हस्तक्षेप किया.
हालांकि Google ने इस मामले पर दुख जताते हुए कहा है कि Gemini को इस तरह डिजाइन नहीं किया गया है कि वह हिंसा या खुद को नुकसान पहुंचाने के लिए प्रेरित करे. कंपनी का कहना है कि AI सिस्टम परफेक्ट नहीं होते और उन्हें लगातार बेहतर बनाया जा रहा है.
इस घटना के बाद एक बार फिर यह बहस तेज हो गई है कि इंसानों की तरह बातचीत करने वाले AI चैटबॉट्स कितने सुरक्षित हैं. विशेषज्ञों का मानना है कि अगर ऐसे सिस्टम में मजबूत सुरक्षा और मानसिक स्वास्थ्य से जुड़े अलर्ट नहीं होंगे तो भविष्य में ऐसे और खतरनाक मामले सामने आ सकते हैं.
दरअसल AI अब सिर्फ एक टेक्नोलॉजी टूल नहीं रह गया है, बल्कि कई लोगों के लिए भावनात्मक सहारा बनता जा रहा है. लेकिन जब इंसान और मशीन के बीच यह रिश्ता हद से ज्यादा गहरा हो जाए, तो इसके परिणाम कितने खतरनाक हो सकते हैं, यह मामला उसी की एक डराने वाली मिसाल बन गया है.