scorecardresearch
 

Deepfake को पीएम मोदी ने बताया अराजकता पैदा करने वाला, किया अपने एक 'वीडियो' का जिक्र

प्रधानमंत्री नरेंद्र मोदी ने डीपफेक के बढ़ते मामलों को लेकर गहरी चिंता जताई है. उन्होंने कहा कि डीपफेक से समाज में अशांति और अराजकता पैदा हो सकती है. उन्होंने डीपफेक को भारतीय प्रणाली के बड़ा खतरा बताया.

Advertisement
X
डीपफेक से बेहद सतर्क रहने की जरूरत: पीएम मोदी (फाइल फोटो)
डीपफेक से बेहद सतर्क रहने की जरूरत: पीएम मोदी (फाइल फोटो)

टेक्नोलॉजी और आर्टिफिशियल इंटेलिजेंस (AI) के इस दौर किसी भी तस्वीर, वीडियो और ऑडियो को मैनिपुलेट या छेड़छाड़ करके बिल्कुल अलग बनाया जा सकता है. बीते दिनों में आर्टिफिशियल इंटेलिजेंस बेस्ड टूल्स का प्रयोग करके जब अभिनेत्री रश्मिका मंदाना का डीपफेक (Deepfake) वीडियो वायरल हुआ तो हर कोई हैरान रह गया.

अशांति पैदा कर सकता है डीपफेक

अब खुद प्रधानमंत्री नरेंद्र मोदी ने भी डीपफेक को लेकर गहरी चिंता जताई है और कहा कि डीपफेक समाज में बड़ी अशांति पैदा कर सकता है. पीएम मोदी ने कहा कि लाइन से हटकर एक लाइन भी हंगामा खड़ा कर सकती है. उन्होंने कहा कि  जेनरेटिव एआई के माध्यम से तैयार तस्वीरों या वीडियोज में एक स्पष्ट डिस्क्लेमर होना चाहिए जिसमें लिखा हो कि यह डीपफेक का उपयोग करके बनाया गया है.

गरबा वीडियो का किया जिक्र

पीएम मोदी ने डीपफेक को भारतीय प्रणाली के सामने सबसे बड़े खतरों में से एक बताया है. पीएम मोदी ने कहा कि डीपफेक समाज में अराजकता पैदा कर सकता है. उन्होंने कहा कि लोगों को और मीडिया को डीपफेक से बेहद सतर्क रहने की जरूरत है.पीएम ने कहा, 'मैंने अपना एक एक वीडियो देखा जिसमें मैं गरबा कर रहा हूं और यह बहुत वास्तविक लग रहा था जबकि मैंने बचपन से गरबा नहीं खेला है.'

Advertisement

वायरल हुआ था पीएम का फेक वीडियो

बीते महीने सोशल मीडिया पर पीएम मोदी का गरबा डांस बताकर एक वीडियो काफी वायरल हुआ. इसमें प्रधानमंत्री जैसा दिख रहा एक व्यक्ति कुछ महिलाओं के साथ गरबा करता नजर आ रहा है. ऐसा कहा जा रहा है कि यह नवरात्र में गरबा खेलते हुए प्रधानमंत्री नरेंद्र मोदी का वीडियो है. इस दावे के साथ यह वीडियो फेसबुक और ट्विटर पर काफी वायरल हो रहा है. आजतक ने अपनी जांच में पाया कि ये वीडियो प्रधानमंत्री मोदी का नहीं बल्कि उनके जैसे दिखने वाले एक एक्टर विकास महंते का है.

हाल ही में वायरल हुआ था रश्मिका का वीडियो

कुछ दिन पहले रश्मिका मंदाना का डीपफेक वीडियो वायरल हुआ तो हर कोई हैरान रह गया. इसके बाद टाइगर-3 से कटरीना कैप की फेक फोटोज और अब सारा तेंदुलकर-शुभमन गिल की फोटो को मॉर्फ करके वायरल किया गया. पहले भी डीपफेक का प्रयोग होते रहा है लेकिन एआई के आने के बाद ऐसे मामलों में बढ़ोतरी हुई है.

क्या होता है डीपफेक (Deepfake)

आजकल तकनीक और AI की मदद से किसी भी तस्वीर, वीडियो और ऑडियो को मैनिपुलेट या छेड़छाड़ करके बिल्कुल अलग बनाया जा सकता है.मसलन, किसी नेता, अभिनेता या सेलिब्रिटी की स्पीच को उठा कर आर्टिफिशियल इंटेलिजेंस बेस्ड टूल के ज़रिए पूरी तरह से बदला जा सकता है. लेकिन सुनने और देखने वाले को इसका पता भी नहीं चलेगा और वो उसे सच मान बैठेगा. इसी को डीपफेक (Deepfake) कहा जाता है. चलिए, अब जान लेते हैं वो कानून जो आपके लिए ऐसे मामलों  में मददगार साबित हो सकते हैं.

Advertisement

पहले फोटोशॉप और दूसरे टूल्स की मदद से लोगों की फोटोज को मॉर्फ करते थे लेकिन डीपफेक इससे आगे की कहानी हैं.  इसमें फेक वीडियो को इतनी बारीकी से एडिट किया जाता है कि वो रियल लगने लगती है. इसके लिए एक एल्गोरिद्म को उस शख्स के हाई क्वालिटी फोटोज और वीडियोज के जरिए ट्रेन किया जाता है जिसे डीप लर्निंग कहते हैं. इसके बाद दूसरे वीडियो में इस एल्गोरिद्म की मदद से किसी एक हिस्से को मॉर्फ किया जाता है. इसकी मदद से एडिट किया गया वीडियो पूरी तरह से रियल लगता है.इसके लिए वॉयस क्लोनिंग तक का इस्तेमाल किया जाता है.

---- समाप्त ----
Live TV

Advertisement
Advertisement