चुनावी दुष्प्रचार का औजार
May 8, 2025
  • Read Ecopy
  • Circulation
  • Advertise
  • Careers
  • About Us
  • Contact Us
android app
Panchjanya
  • ‌
  • विश्व
  • भारत
  • राज्य
  • सम्पादकीय
  • संघ
  • वेब स्टोरी
  • जीवनशैली
  • अधिक ⋮
    • विश्लेषण
    • लव जिहाद
    • खेल
    • मनोरंजन
    • यात्रा
    • स्वास्थ्य
    • संस्कृति
    • पर्यावरण
    • बिजनेस
    • साक्षात्कार
    • शिक्षा
    • रक्षा
    • ऑटो
    • पुस्तकें
    • सोशल मीडिया
    • विज्ञान और तकनीक
    • मत अभिमत
    • श्रद्धांजलि
    • संविधान
    • आजादी का अमृत महोत्सव
    • मानस के मोती
    • लोकसभा चुनाव
    • वोकल फॉर लोकल
    • जनजातीय नायक
    • बोली में बुलेटिन
    • पॉडकास्ट
    • पत्रिका
    • ओलंपिक गेम्स 2024
    • हमारे लेखक
SUBSCRIBE
  • ‌
  • विश्व
  • भारत
  • राज्य
  • सम्पादकीय
  • संघ
  • वेब स्टोरी
  • जीवनशैली
  • अधिक ⋮
    • विश्लेषण
    • लव जिहाद
    • खेल
    • मनोरंजन
    • यात्रा
    • स्वास्थ्य
    • संस्कृति
    • पर्यावरण
    • बिजनेस
    • साक्षात्कार
    • शिक्षा
    • रक्षा
    • ऑटो
    • पुस्तकें
    • सोशल मीडिया
    • विज्ञान और तकनीक
    • मत अभिमत
    • श्रद्धांजलि
    • संविधान
    • आजादी का अमृत महोत्सव
    • मानस के मोती
    • लोकसभा चुनाव
    • वोकल फॉर लोकल
    • जनजातीय नायक
    • बोली में बुलेटिन
    • पॉडकास्ट
    • पत्रिका
    • ओलंपिक गेम्स 2024
    • हमारे लेखक
Panchjanya
panchjanya android mobile app
  • होम
  • विश्व
  • भारत
  • राज्य
  • सम्पादकीय
  • संघ
  • वेब स्टोरी
  • जीवनशैली
  • विश्लेषण
  • मत अभिमत
  • रक्षा
  • संस्कृति
  • पत्रिका
होम भारत

चुनावी दुष्प्रचार का औजार

इस बार चुनाव में एआई तकनीक का जमकर प्रयोग हो रहा है। सबसे बड़ी समस्या यह है कि असली और नकली आॅडियो-वीडियो के बीच की दूरी सिमट गई है। हाल ही में दिखे प्रधानमंत्री नरेंद्र मोदी, अभिनेता आमिर खान और रणवीर सिंह के फर्जी वीडियो इसके उदाहरण हैं। चुनौती बड़ी है, इसलिए सभी सतर्क रहें और इसके झांसे में न आएं

by बालेन्दु शर्मा दाधीच
May 2, 2024, 03:18 pm IST
in भारत, विज्ञान और तकनीक, सोशल मीडिया
FacebookTwitterWhatsAppTelegramEmail

सन् 2019 के चुनावों को सोशल मीडिया चुनाव कहा गया था। इस बार के चुनावों को अगर कृत्रिम बुद्धिमता (एआई) चुनाव कहा जाए तो अतिशयोक्ति नहीं होगी। ऐसा इसलिए, क्योंकि डीपफेक नामक एआई तकनीक का इन चुनावों में जैसा धुआंधार प्रयोग हो रहा है, उसे देखते हुए असली और नकली के बीच की दूरी सिमट-सी गई है। जिस तकनीक को हमारी बेहतरी के लिए विकसित किया गया, उसका मनमाना दुरुपयोग करने वालों की बाढ़ आ गई है।
आपने शायद यह खबर पढ़ी होगी कि बॉलीवुड अभिनेता रणवीर सिंह ने अपना ‘डीपफेक’ वीडियो वायरल होने के बाद मुंबई के साइबर अपराध प्रकोष्ठ में एफआईआर दर्ज कराई है। इस वीडियो में रणवीर सिंह प्रधानमंत्री नरेंद्र मोदी की आलोचना करते हुए दिखाई दे रहे हैं और कहीं से भी ऐसा नहीं लगता कि यह उनका अपना वीडियो नहीं है।

बालेन्दु शर्मा दाधीच
माइक्रोसॉफ़्ट एशिया में डेवलपर मार्केटिंग के प्रमुख

मुंबई के साइबर अपराध प्रकोष्ठ ने रणवीर सिंह की शिकायत दर्ज कर ली है और मामले की जांच चल रही है। इसलिए इस अभिनेता की शिकायत पर विश्वास न करने का कारण नहीं बनता। कुछ दिन पहले अभिनेता आमिर खान का भी ऐसा ही वीडियो आया था, जिसमें वह एक राजनीतिक दल की हिमायत करते दिखाई दे रहे हैं। शायद आपने प्रधानमंत्री मोदी का भी एक डीपफेक वीडियो देखा हो, जिसमें उन्हें गरबा खेलते हुए दिखाया गया था। इसी तरह से सरदार वल्लभ भाई पटेल के बारे में उनका यूट्यूब शॉर्ट भी वायरल हो चुका है। अतीत में फिल्म अभिनेत्री रश्मिका मंदाना और काजोल के भी ऐसे ही वीडियो सोशल मीडिया पर वायरल हो चुके हैं।

ये तो चंद उदाहरण हैं। वास्तविकता यह है कि विश्व के किसी भी व्यक्ति का ऐसा ही नकली वीडियो बनाया जा सकता है। सिर्फ वीडियो ही क्यों, उसमें आवाज भी उसी व्यक्ति की होगी। ये नकली वीडियो, जिन्हें एआई की मदद से बनाया जाता है, इतने असली लगते हैं कि खुद वे लोग भी धोखा खा सकते हैं जिन्हें इन वीडियो में दिखाया गया है। इन्हें डीपफेक कहा जाता है। नाम से ही स्पष्ट है कि ये इतने अधिक नकली हैं कि इनकी असलियत जानना असंभव नहीं तो बहुत मुश्किल जरूर है। तकनीक भी इतनी आसान हो गई है कि किसी का वीडियो बनाने के लिए उस व्यक्ति के चंद फोटोग्राफ और कुछ मिनटों की आॅडियो रिकॉर्डिंग भर की जरूरत होती है। बाकी काम एआई कर देता है। फिर आप जो भी स्क्रिप्ट लिख दें, वह उस व्यक्ति से बुलवा सकते हैं।

जाहिर है कि जो लोग सोशल मीडिया पर किसी राजनीतिक दल, नेता या दूसरे प्रभावशाली लोगों के बारे में दुष्प्रचार करना चाहते हैं, उन्हें एक मजबूत तकनीकी हथियार मिल गया है। अभी हाल तक किसी नेता के नाम से प्रचारित किए गए किसी आपत्तिजनक बयान को हम तब तक मानने से इनकार करते रहे हैं, जब तक कि हम खुद उस नेता की आवाज में वह बयान न सुन लें या फिर वही बयान देते हुए उनका वीडियो न देख लें। लेकिन अब क्या करेंगे?

अब तो किसी भी नेता को कोई भी बयान देते हुए ऐसा वीडियो बनाया जा सकता है, जो एकदम असली लगता हो। जो व्यक्ति इस तरह की जालसाजी का शिकार हुआ है, वह भले ही कितनी भी सफाई देता रहे, लेकिन सोशल मीडिया पर ऐसे वीडियो के लाखों-करोड़ों लोगों तक पहुंच जाने के बाद सच्चाई की परवाह कौन करेगा? तब तक तो उसकी प्रतिक्रिया में भी न जाने क्या-कुछ कहा जा चुका होता है। बहरहाल, इस प्रक्रिया में न सिर्फ सामाजिक वातावरण दूषित हो चुका होता है, बल्कि चुनाव भी प्रभावित हो चुका होता है। लोकतंत्र में लोगों के भरोसे व सच्चाई को चोट लग चुकी होती है।

अपना एक अनुभव बताता हूं। मैंने एक सोशल मीडिया प्लेटफॉर्म पर आने वाले ऐसे कई झूठे वीडियो को रिपोर्ट किया, जिनमें इन्फोसिस के अध्यक्ष एनआर नारायण मूर्ति जैसे लोगों को दिखाया गया है। एक वीडियो में नारायण मूर्ति कहते हैं कि भारत में एक ऐसा मोबाइल एप्लीकेशन बना लिया गया है, जो शेयर बाजार में पैसे लगाकर आपको मालामाल कर सकता है। इसके बाद उस मोबाइल एप्लीकेशन का विज्ञापन सामने आता है।
यह नारायणमूर्ति का डीपफेक वीडियो है। यह बात एकदम स्पष्ट दिखाई देती है, लेकिन फिर भी, और मेरे अनेक बार रिपोर्ट करने के बाद भी, वह वीडियो उसी तरह दिखाया जाता रहा। इस बीच न जाने कितने लोगों ने उस वीडियो पर विश्वास करके वह मोबाइल एप्लीकेशन खरीदा होगा और कौन जाने वह एप्लीकेशन सचमुच निवेश के लिए ही था या फिर अपने यूजर्स के साथ कोई धोखाधड़ी करने के लिए।

यह इस बात का उदाहरण है कि डीपफेक का कितना घातक इस्तेमाल किया जा सकता है, न सिर्फ राजनीति जीवन में, बल्कि आम जीवन में भी। जब कोई बड़ा व्यक्ति कुछ कह रहा हो तो लोगों के लिए विश्वास करना स्वाभाविक हो जाता है। जरा सोचिए, अगर किसी नामचीन व्यक्ति के मुंह से कोई भी बयान दिलवाया जा सकता है, तो उन्हें किसी भी आपत्तिजनक स्थिति में दिखाना भी कितना आसान होगा। अब तो कुछ लोग बाकायदा डीपफेक का कारोबार कर रहे हैं। उनके पास ग्राहक आते हैं और मनचाहे वीडियो बनवाते हैं। इनमें राजनीतिक दलों के लोग भी जरूर होंगे।

भले ही विशेषज्ञों को ऐसे वीडियो की पहचान हो, लेकिन आम आदमी इन्हें नहीं पहचान सकेगा। इसी तरह, किसी खास समुदाय के वोट काटने के लिए उसके खिलाफ किसी नेता का डीपफेक बनवा कर उसे वायरल किया जा सकता है। बयानों को तोड़ना-मरोड़ना तो आसान बात है और एआई के आने से पहले भी होता रहा है। किसी जमाने में लोगों के फोटोग्राफ या आवाज के साथ छेड़छाड़ के मामले देखने को मिलते थे, लेकिन वैसे अपराध अब बच्चों के खेल लगते हैं। हालांकि केंद्र सरकार ऐसे मामलों को लेकर सजग है और वह डीपफेक तथा आनलाइन दुष्प्रचार की रोकथाम के लिए कानूनों को कड़ा बनाने में लगी है।

सूचना प्रौद्योगिकी नियम-2021 के नियम 3(2) के तहत साफ उल्लेख है कि किसी व्यक्ति को इलेक्ट्रॉनिक रूप से गलत प्रतिरूपण करके दिखाना अपराध है और इसकी जिम्मेदारी उन मंचों पर भी आती है, जहां से उसे दिखाया जा रहा है। फेसबुक, यूट्यूब और ट्विटर जैसी कंपनियों को बाध्य किया गया है कि अगर उन्हें किसी डीपफेक वीडियो की शिकायत की जाती है, तो उन्हें 24 घंटे के भीतर ऐसे ‘डीपफेक’ को हटाना होगा। लेकिन जैसा कि ऊपर एक उदाहरण दिया गया है, कानूनों का अनुपालन कितनी ऐसे मामलों के अपराधियों तक पहुंच पाना भी आसान नहीं है। किसने, कब वीडियो वायरल किया और खुद इंटरनेट की अंधेरी गलियों में खिसक गया, कौन जाने।

एआई जहां चीजें पैदा कर सकती है, वहीं उन्हें पहचानने में भी मदद कर सकती है। जैसे चैटजीपीटी से अगर आपने कोई लेख लिखवाया, तो उसे आसानी से पहचाना जा सकता है, इसके लिए तकनीक उपलब्ध है। इसी तरह से डीपफेक वीडियो और नकली फोटोग्राफ को पहचानने वाली तकनीकें भी विकसित की जा रही हैं, लेकिन उनको हम तक पहुंचने में समय लगेगा। तब तक कुछ तरकीबें जिनका प्रयोग इन्हें पहचानने के लिए किया जा सकता है, वे ये हैं- वीडियो को जूम इन करके देखिए।

डीपफेक वीडियो में दिख रहे लोगों के बालों, कपड़ों, चेहरे के फीचर्स आदि में वैसी स्वाभाविकता नहीं होगी, जैसी कि सामान्य रूप से होती है, जैसे बालों की बनावट और रंग कहीं ऐसे और कहीं वैसे हों। क्या व्यक्ति के होंठ बोली गई ध्वनि के लिहाज से सही ढंग से हिल रहे हैं? हो सकता है कि उनके बीच अंतर दिखाई दे। भावनाओं को देखिए- खुशी की बात करते समय व्यक्ति का चेहरा क्या कह रहा है? क्या वह सपाट है या फिर निराश दिख रहा है? रंगों को देखिए, उनमें अस्वाभाविकता हो सकती है। जूम इन करने पर चित्रों के पिक्सल फटे हुए भी दिखाई दे सकते हैं।

जरूरत इस बात की है कि एक तरफ तो कानूनों को सख्ती से लागू किया जाए और दूसरी तरफ लोगों को जागरूक किया जाए ताकि न सिर्फवे ऐसे नकली वीडियो, फोटो और ध्वनि को पहचान सकें, बल्कि उन्हें आगे बढ़ाने से भी बचें।

फर्जी चाल-ढाल, खतरनाक मायाजाल

Topics: Social Media ElectionsYouTube ShortMobile Applicationसूचना प्रौद्योगिकीInformation Technologyपाञ्चजन्य विशेषमोबाइल एप्लीकेशनमुंबई के साइबरसोशल मीडिया चुनावयूट्यूब शॉर्टMumbai Cyber
Share1TweetSendShareSend
Subscribe Panchjanya YouTube Channel

संबंधित समाचार

घुसपैठ और कन्वर्जन के विरोध में लोगों के साथ सड़क पर उतरे चंपई सोरेन

घर वापसी का जोर, चर्च कमजोर

1822 तक सिर्फ मद्रास प्रेसिडेंसी में ही 1 लाख पाठशालाएं थीं।

मैकाले ने नष्ट की हमारी ज्ञान परंपरा

मार्क कार्नी

जीते मार्क कार्नी, पिटे खालिस्तानी प्यादे

हल्दी घाटी के युद्ध में मात्र 20,000 सैनिकों के साथ महाराणा प्रताप ने अकबर के 85,000 सैनिकों को महज 4 घंटे में ही रण भूमि से खदेड़ दिया। उन्होंने अकबर को तीन युद्धों में पराजित किया

दिल्ली सल्तनत पाठ्यक्रम का हिस्सा क्यों?

स्व का भाव जगाता सावरकर साहित्य

पद्म सम्मान-2025 : सम्मान का बढ़ा मान

टिप्पणियाँ

यहां/नीचे/दिए गए स्थान पर पोस्ट की गई टिप्पणियां पाञ्चजन्य की ओर से नहीं हैं। टिप्पणी पोस्ट करने वाला व्यक्ति पूरी तरह से इसकी जिम्मेदारी के स्वामित्व में होगा। केंद्र सरकार के आईटी नियमों के मुताबिक, किसी व्यक्ति, धर्म, समुदाय या राष्ट्र के खिलाफ किया गया अश्लील या आपत्तिजनक बयान एक दंडनीय अपराध है। इस तरह की गतिविधियों में शामिल लोगों के खिलाफ कानूनी कार्रवाई की जाएगी।

ताज़ा समाचार

बौखलाए पाकिस्तान ने दागी रियाशी इलाकों में मिसाइलें, भारत ने की नाकाम : जम्मू-पंजाब-गुजरात और राजस्थान में ब्लैकआउट

‘ऑपरेशन सिंदूर’ से तिलमिलाए पाकिस्तानी कलाकार : शब्दों से बहा रहे आतंकियों के लिए आंसू, हानिया-माहिरा-फवाद हुए बेनकाब

राफेल पर मजाक उड़ाना पड़ा भारी : सेना का मजाक उड़ाने पर कांग्रेस नेता अजय राय FIR

घुसपैठ और कन्वर्जन के विरोध में लोगों के साथ सड़क पर उतरे चंपई सोरेन

घर वापसी का जोर, चर्च कमजोर

‘आतंकी जनाजों में लहराते झंडे सब कुछ कह जाते हैं’ : पाकिस्तान फिर बेनकाब, भारत ने सबूत सहित बताया आतंकी गठजोड़ का सच

पाकिस्तान पर भारत की डिजिटल स्ट्राइक : ओटीटी पर पाकिस्तानी फिल्में और वेब सीरीज बैन, नहीं दिखेगा आतंकी देश का कंटेंट

Brahmos Airospace Indian navy

अब लखनऊ ने निकलेगी ‘ब्रह्मोस’ मिसाइल : 300 करोड़ की लागत से बनी यूनिट तैयार, सैन्य ताकत के लिए 11 मई अहम दिन

पाकिस्तान के प्रधानमंत्री शहबाज शरीफ

पाकिस्तान की आतंकी साजिशें : कश्मीर से काबुल, मॉस्को से लंदन और उससे भी आगे तक

Live Press Briefing on Operation Sindoor by Ministry of External Affairs: ऑपरेशन सिंदूर पर भारत की प्रेस कॉन्फ्रेंस

ओटीटी पर पाकिस्तानी सीरीज बैन

OTT पर पाकिस्तानी कंटेंट पर स्ट्राइक, गाने- वेब सीरीज सब बैन

  • Privacy
  • Terms
  • Cookie Policy
  • Refund and Cancellation
  • Delivery and Shipping

© Bharat Prakashan (Delhi) Limited.
Tech-enabled by Ananthapuri Technologies

  • Search Panchjanya
  • होम
  • विश्व
  • भारत
  • राज्य
  • सम्पादकीय
  • संघ
  • वेब स्टोरी
  • जीवनशैली
  • विश्लेषण
  • लव जिहाद
  • खेल
  • मनोरंजन
  • यात्रा
  • स्वास्थ्य
  • संस्कृति
  • पर्यावरण
  • बिजनेस
  • साक्षात्कार
  • शिक्षा
  • रक्षा
  • ऑटो
  • पुस्तकें
  • सोशल मीडिया
  • विज्ञान और तकनीक
  • मत अभिमत
  • श्रद्धांजलि
  • संविधान
  • आजादी का अमृत महोत्सव
  • लोकसभा चुनाव
  • वोकल फॉर लोकल
  • बोली में बुलेटिन
  • ओलंपिक गेम्स 2024
  • पॉडकास्ट
  • पत्रिका
  • हमारे लेखक
  • Read Ecopy
  • About Us
  • Contact Us
  • Careers @ BPDL
  • प्रसार विभाग – Circulation
  • Advertise
  • Privacy Policy

© Bharat Prakashan (Delhi) Limited.
Tech-enabled by Ananthapuri Technologies