Deepfake को पीएम मोदी ने बताया अराजकता पैदा करने वाला, किया अपने एक 'वीडियो' का जिक्र

प्रधानमंत्री नरेंद्र मोदी ने डीपफेक के बढ़ते मामलों को लेकर गहरी चिंता जताई है. उन्होंने कहा कि डीपफेक से समाज में अशांति और अराजकता पैदा हो सकती है. उन्होंने डीपफेक को भारतीय प्रणाली के बड़ा खतरा बताया.

Advertisement
डीपफेक से बेहद सतर्क रहने की जरूरत: पीएम मोदी (फाइल फोटो) डीपफेक से बेहद सतर्क रहने की जरूरत: पीएम मोदी (फाइल फोटो)

राहुल कंवल

  • नई दिल्ली,
  • 17 नवंबर 2023,
  • अपडेटेड 2:01 PM IST

टेक्नोलॉजी और आर्टिफिशियल इंटेलिजेंस (AI) के इस दौर किसी भी तस्वीर, वीडियो और ऑडियो को मैनिपुलेट या छेड़छाड़ करके बिल्कुल अलग बनाया जा सकता है. बीते दिनों में आर्टिफिशियल इंटेलिजेंस बेस्ड टूल्स का प्रयोग करके जब अभिनेत्री रश्मिका मंदाना का डीपफेक (Deepfake) वीडियो वायरल हुआ तो हर कोई हैरान रह गया.

अशांति पैदा कर सकता है डीपफेक

अब खुद प्रधानमंत्री नरेंद्र मोदी ने भी डीपफेक को लेकर गहरी चिंता जताई है और कहा कि डीपफेक समाज में बड़ी अशांति पैदा कर सकता है. पीएम मोदी ने कहा कि लाइन से हटकर एक लाइन भी हंगामा खड़ा कर सकती है. उन्होंने कहा कि  जेनरेटिव एआई के माध्यम से तैयार तस्वीरों या वीडियोज में एक स्पष्ट डिस्क्लेमर होना चाहिए जिसमें लिखा हो कि यह डीपफेक का उपयोग करके बनाया गया है.

Advertisement

गरबा वीडियो का किया जिक्र

पीएम मोदी ने डीपफेक को भारतीय प्रणाली के सामने सबसे बड़े खतरों में से एक बताया है. पीएम मोदी ने कहा कि डीपफेक समाज में अराजकता पैदा कर सकता है. उन्होंने कहा कि लोगों को और मीडिया को डीपफेक से बेहद सतर्क रहने की जरूरत है.पीएम ने कहा, 'मैंने अपना एक एक वीडियो देखा जिसमें मैं गरबा कर रहा हूं और यह बहुत वास्तविक लग रहा था जबकि मैंने बचपन से गरबा नहीं खेला है.'

वायरल हुआ था पीएम का फेक वीडियो

बीते महीने सोशल मीडिया पर पीएम मोदी का गरबा डांस बताकर एक वीडियो काफी वायरल हुआ. इसमें प्रधानमंत्री जैसा दिख रहा एक व्यक्ति कुछ महिलाओं के साथ गरबा करता नजर आ रहा है. ऐसा कहा जा रहा है कि यह नवरात्र में गरबा खेलते हुए प्रधानमंत्री नरेंद्र मोदी का वीडियो है. इस दावे के साथ यह वीडियो फेसबुक और ट्विटर पर काफी वायरल हो रहा है. आजतक ने अपनी जांच में पाया कि ये वीडियो प्रधानमंत्री मोदी का नहीं बल्कि उनके जैसे दिखने वाले एक एक्टर विकास महंते का है.

Advertisement

हाल ही में वायरल हुआ था रश्मिका का वीडियो

कुछ दिन पहले रश्मिका मंदाना का डीपफेक वीडियो वायरल हुआ तो हर कोई हैरान रह गया. इसके बाद टाइगर-3 से कटरीना कैप की फेक फोटोज और अब सारा तेंदुलकर-शुभमन गिल की फोटो को मॉर्फ करके वायरल किया गया. पहले भी डीपफेक का प्रयोग होते रहा है लेकिन एआई के आने के बाद ऐसे मामलों में बढ़ोतरी हुई है.

क्या होता है डीपफेक (Deepfake)

आजकल तकनीक और AI की मदद से किसी भी तस्वीर, वीडियो और ऑडियो को मैनिपुलेट या छेड़छाड़ करके बिल्कुल अलग बनाया जा सकता है.मसलन, किसी नेता, अभिनेता या सेलिब्रिटी की स्पीच को उठा कर आर्टिफिशियल इंटेलिजेंस बेस्ड टूल के ज़रिए पूरी तरह से बदला जा सकता है. लेकिन सुनने और देखने वाले को इसका पता भी नहीं चलेगा और वो उसे सच मान बैठेगा. इसी को डीपफेक (Deepfake) कहा जाता है. चलिए, अब जान लेते हैं वो कानून जो आपके लिए ऐसे मामलों  में मददगार साबित हो सकते हैं.

पहले फोटोशॉप और दूसरे टूल्स की मदद से लोगों की फोटोज को मॉर्फ करते थे लेकिन डीपफेक इससे आगे की कहानी हैं.  इसमें फेक वीडियो को इतनी बारीकी से एडिट किया जाता है कि वो रियल लगने लगती है. इसके लिए एक एल्गोरिद्म को उस शख्स के हाई क्वालिटी फोटोज और वीडियोज के जरिए ट्रेन किया जाता है जिसे डीप लर्निंग कहते हैं. इसके बाद दूसरे वीडियो में इस एल्गोरिद्म की मदद से किसी एक हिस्से को मॉर्फ किया जाता है. इसकी मदद से एडिट किया गया वीडियो पूरी तरह से रियल लगता है.इसके लिए वॉयस क्लोनिंग तक का इस्तेमाल किया जाता है.

---- समाप्त ----

Read more!
Advertisement

RECOMMENDED

Advertisement