ChatGPT से पूछ कर की गई गोलीबारी? OpenAI पर क्रिमिनल इन्वेस्टिगेशन शुरू

OpenAI के खिलाफ अमेरिका में क्रिमिनल इन्वेस्टिगेशन स्टार्ट हो गई है. दरअसल फ्लोरिडा शूटिंग मामले में अटैकर ने हमले से पहले OpenAI का ChatGPT यूज किया था और कुछ सवाल पूछे थे.

Advertisement
OpenAI पर क्रिमिनल केस दर्ज OpenAI पर क्रिमिनल केस दर्ज

आजतक टेक्नोलॉजी डेस्क

  • नई दिल्ली,
  • 22 अप्रैल 2026,
  • अपडेटेड 5:38 PM IST

अमेरिका के फ्लोरिडा से एक ऐसी खबर सामने आई है, जिसने टेक्नोलॉजी और कानून दोनों दुनिया को हिला दिया है. यहां की सरकार ने OpenAI और उसके AI टूल ChatGPT के खिलाफ क्रिमिनल इन्वेस्टिगेशन शुरू कर दी है.

आरोप है कि एक यूनिवर्सिटी शूटिंग केस में अटैकर ने हमले से पहले ChatGPT का यूज किया था और उससे मिली जानकारी ने घटना को अंजाम देने में बड़ा रोल अदा किया. 

Advertisement

यह भी पढ़ें: ChatGPT के बॉस को समझ नहीं आती मशीन लर्निंग, OpenAI के कर्मचारियों ने बताई खामियां

यह मामला फ्लोरिडा स्टेट यूनिवर्सिटी का है जहां अप्रैल 2025 में एक स्टूडेंट ने गोलीबारी की थी. इस हमले में दो लोगों की मौत हो गई थी और कई लोग घायल हुए थे. आरोपी की पहचान फीनिक्स इकनर के रूप में हुई, जिस पर हत्या और हत्या की कोशिश जैसे गंभीर आरोप हैं.

अब इस मामले में नया मोड़ आया है. फ्लोरिडा के अटॉर्नी जनरल जेम्स उथमेयर ने कहा है कि इस केस को लेकर OpenAI की भूमिका की जांच की जाएगी. उनका दावा है कि आरोपी हमले से पहले ChatGPT से लगातार बातचीत कर रहा था और उसने हथियार, गोला-बारूद, समय और जगह से जुड़े सवाल पूछे थे.

OpenAI-ChatGPT के खिलाफ हत्या का मामला चलेगा?

Advertisement

रिपोर्ट्स के मुताबिक, आरोपी ने यह भी पूछा था कि किस तरह के हथियार ज्यादा असरदार होंगे और किस समय ज्यादा लोग मौजूद रहते हैं. जांच एजेंसियां अब यह समझने की कोशिश कर रही हैं कि क्या ChatGPT ने उसे ऐसी जानकारी दी, जिससे हमले की योजना बनाने में मदद मिली.

फ्लोरिडा सरकार का कहना है कि अगर कोई इंसान ऐसी सलाह देता, तो उस पर सीधे हत्या का मामला बनता. इसी आधार पर यह जांच की जा रही है कि क्या एक AI सिस्टम को भी किसी तरह जिम्मेदार ठहराया जा सकता है.

यह भी पढ़ें: एक गलती और लीक हो जाएंगी ChatGPT पर की गई आपकी तमाम बातें और तस्वीरें

इस मामले में OpenAI ने अपनी सफाई भी दी है. कंपनी का कहना है कि ChatGPT ने कोई गलत या गैरकानूनी सलाह नहीं दी, बल्कि केवल वही जानकारी दी जो इंटरनेट पर पहले से मौजूद है. कंपनी ने यह भी कहा कि उसने खुद ही आरोपी के अकाउंट से जुड़ी जानकारी पुलिस के साथ शेयर की और जांच में सहयोग कर रही है.

वॉयलेंस की तरफ ले जा रहा AI

गौरतलब है कि पिछले कुछ समय में आर्टिफिशियल इंटेलिजेंस (AI) टूल्स को लेकर कई सवाल उठे हैं कि क्या इनका गलत इस्तेमाल लोगों को वॉयलेंस की तरफ धकेल सकता है.

Advertisement

फ्लोरिडा का यह केस इसलिए भी अहम माना जा रहा है क्योंकि यह पहली बार है जब किसी AI कंपनी के खिलाफ आपराधिक जिम्मेदारी तय करने की कोशिश हो रही है.

जांच एजेंसियों ने OpenAI को समन भेजा है और कंपनी से उसकी पॉलिसी, सेफ्टी सिस्टम और ऐसे मामलों को लेकर उसकी तैयारी से जुड़ी जानकारी मांगी है. यह भी देखा जाएगा कि क्या ChatGPT के पास ऐसे सवालों को पहचानने और रोकने का सिस्टम था या नहीं.

इस पूरे मामले ने एक बड़ा सवाल खड़ा कर दिया है कि क्या AI सिर्फ एक टूल है या उसकी भी जिम्मेदारी तय हो सकती है. क्योंकि अगर कोई शख्स AI से जानकारी लेकर क्राइम करता है, तो दोष किसका होगा, इंसान का या उस टेक्नोलॉजी का.

आने वाले समय में यह केस एक मिसाल बन सकता है. अगर कोर्ट यह तय करता है कि AI कंपनियां भी जिम्मेदार हो सकती हैं, तो पूरी टेक इंडस्ट्री के लिए नियम बदल सकते हैं. वहीं अगर ऐसा नहीं होता, तो AI के इस्तेमाल को लेकर बहस और तेज होगी.

---- समाप्त ----

Read more!
Advertisement

RECOMMENDED

Advertisement