अमेरिका के फ्लोरिडा से एक ऐसी खबर सामने आई है, जिसने टेक्नोलॉजी और कानून दोनों दुनिया को हिला दिया है. यहां की सरकार ने OpenAI और उसके AI टूल ChatGPT के खिलाफ क्रिमिनल इन्वेस्टिगेशन शुरू कर दी है.
आरोप है कि एक यूनिवर्सिटी शूटिंग केस में अटैकर ने हमले से पहले ChatGPT का यूज किया था और उससे मिली जानकारी ने घटना को अंजाम देने में बड़ा रोल अदा किया.
यह भी पढ़ें: ChatGPT के बॉस को समझ नहीं आती मशीन लर्निंग, OpenAI के कर्मचारियों ने बताई खामियां
यह मामला फ्लोरिडा स्टेट यूनिवर्सिटी का है जहां अप्रैल 2025 में एक स्टूडेंट ने गोलीबारी की थी. इस हमले में दो लोगों की मौत हो गई थी और कई लोग घायल हुए थे. आरोपी की पहचान फीनिक्स इकनर के रूप में हुई, जिस पर हत्या और हत्या की कोशिश जैसे गंभीर आरोप हैं.
अब इस मामले में नया मोड़ आया है. फ्लोरिडा के अटॉर्नी जनरल जेम्स उथमेयर ने कहा है कि इस केस को लेकर OpenAI की भूमिका की जांच की जाएगी. उनका दावा है कि आरोपी हमले से पहले ChatGPT से लगातार बातचीत कर रहा था और उसने हथियार, गोला-बारूद, समय और जगह से जुड़े सवाल पूछे थे.
OpenAI-ChatGPT के खिलाफ हत्या का मामला चलेगा?
रिपोर्ट्स के मुताबिक, आरोपी ने यह भी पूछा था कि किस तरह के हथियार ज्यादा असरदार होंगे और किस समय ज्यादा लोग मौजूद रहते हैं. जांच एजेंसियां अब यह समझने की कोशिश कर रही हैं कि क्या ChatGPT ने उसे ऐसी जानकारी दी, जिससे हमले की योजना बनाने में मदद मिली.
फ्लोरिडा सरकार का कहना है कि अगर कोई इंसान ऐसी सलाह देता, तो उस पर सीधे हत्या का मामला बनता. इसी आधार पर यह जांच की जा रही है कि क्या एक AI सिस्टम को भी किसी तरह जिम्मेदार ठहराया जा सकता है.
यह भी पढ़ें: एक गलती और लीक हो जाएंगी ChatGPT पर की गई आपकी तमाम बातें और तस्वीरें
इस मामले में OpenAI ने अपनी सफाई भी दी है. कंपनी का कहना है कि ChatGPT ने कोई गलत या गैरकानूनी सलाह नहीं दी, बल्कि केवल वही जानकारी दी जो इंटरनेट पर पहले से मौजूद है. कंपनी ने यह भी कहा कि उसने खुद ही आरोपी के अकाउंट से जुड़ी जानकारी पुलिस के साथ शेयर की और जांच में सहयोग कर रही है.
वॉयलेंस की तरफ ले जा रहा AI
गौरतलब है कि पिछले कुछ समय में आर्टिफिशियल इंटेलिजेंस (AI) टूल्स को लेकर कई सवाल उठे हैं कि क्या इनका गलत इस्तेमाल लोगों को वॉयलेंस की तरफ धकेल सकता है.
फ्लोरिडा का यह केस इसलिए भी अहम माना जा रहा है क्योंकि यह पहली बार है जब किसी AI कंपनी के खिलाफ आपराधिक जिम्मेदारी तय करने की कोशिश हो रही है.
जांच एजेंसियों ने OpenAI को समन भेजा है और कंपनी से उसकी पॉलिसी, सेफ्टी सिस्टम और ऐसे मामलों को लेकर उसकी तैयारी से जुड़ी जानकारी मांगी है. यह भी देखा जाएगा कि क्या ChatGPT के पास ऐसे सवालों को पहचानने और रोकने का सिस्टम था या नहीं.
इस पूरे मामले ने एक बड़ा सवाल खड़ा कर दिया है कि क्या AI सिर्फ एक टूल है या उसकी भी जिम्मेदारी तय हो सकती है. क्योंकि अगर कोई शख्स AI से जानकारी लेकर क्राइम करता है, तो दोष किसका होगा, इंसान का या उस टेक्नोलॉजी का.
आने वाले समय में यह केस एक मिसाल बन सकता है. अगर कोर्ट यह तय करता है कि AI कंपनियां भी जिम्मेदार हो सकती हैं, तो पूरी टेक इंडस्ट्री के लिए नियम बदल सकते हैं. वहीं अगर ऐसा नहीं होता, तो AI के इस्तेमाल को लेकर बहस और तेज होगी.