सन् 2019 के चुनावों को सोशल मीडिया चुनाव कहा गया था। इस बार के चुनावों को अगर कृत्रिम बुद्धिमता (एआई) चुनाव कहा जाए तो अतिशयोक्ति नहीं होगी। ऐसा इसलिए, क्योंकि डीपफेक नामक एआई तकनीक का इन चुनावों में जैसा धुआंधार प्रयोग हो रहा है, उसे देखते हुए असली और नकली के बीच की दूरी सिमट-सी गई है। जिस तकनीक को हमारी बेहतरी के लिए विकसित किया गया, उसका मनमाना दुरुपयोग करने वालों की बाढ़ आ गई है।
आपने शायद यह खबर पढ़ी होगी कि बॉलीवुड अभिनेता रणवीर सिंह ने अपना ‘डीपफेक’ वीडियो वायरल होने के बाद मुंबई के साइबर अपराध प्रकोष्ठ में एफआईआर दर्ज कराई है। इस वीडियो में रणवीर सिंह प्रधानमंत्री नरेंद्र मोदी की आलोचना करते हुए दिखाई दे रहे हैं और कहीं से भी ऐसा नहीं लगता कि यह उनका अपना वीडियो नहीं है।
मुंबई के साइबर अपराध प्रकोष्ठ ने रणवीर सिंह की शिकायत दर्ज कर ली है और मामले की जांच चल रही है। इसलिए इस अभिनेता की शिकायत पर विश्वास न करने का कारण नहीं बनता। कुछ दिन पहले अभिनेता आमिर खान का भी ऐसा ही वीडियो आया था, जिसमें वह एक राजनीतिक दल की हिमायत करते दिखाई दे रहे हैं। शायद आपने प्रधानमंत्री मोदी का भी एक डीपफेक वीडियो देखा हो, जिसमें उन्हें गरबा खेलते हुए दिखाया गया था। इसी तरह से सरदार वल्लभ भाई पटेल के बारे में उनका यूट्यूब शॉर्ट भी वायरल हो चुका है। अतीत में फिल्म अभिनेत्री रश्मिका मंदाना और काजोल के भी ऐसे ही वीडियो सोशल मीडिया पर वायरल हो चुके हैं।
ये तो चंद उदाहरण हैं। वास्तविकता यह है कि विश्व के किसी भी व्यक्ति का ऐसा ही नकली वीडियो बनाया जा सकता है। सिर्फ वीडियो ही क्यों, उसमें आवाज भी उसी व्यक्ति की होगी। ये नकली वीडियो, जिन्हें एआई की मदद से बनाया जाता है, इतने असली लगते हैं कि खुद वे लोग भी धोखा खा सकते हैं जिन्हें इन वीडियो में दिखाया गया है। इन्हें डीपफेक कहा जाता है। नाम से ही स्पष्ट है कि ये इतने अधिक नकली हैं कि इनकी असलियत जानना असंभव नहीं तो बहुत मुश्किल जरूर है। तकनीक भी इतनी आसान हो गई है कि किसी का वीडियो बनाने के लिए उस व्यक्ति के चंद फोटोग्राफ और कुछ मिनटों की आॅडियो रिकॉर्डिंग भर की जरूरत होती है। बाकी काम एआई कर देता है। फिर आप जो भी स्क्रिप्ट लिख दें, वह उस व्यक्ति से बुलवा सकते हैं।
जाहिर है कि जो लोग सोशल मीडिया पर किसी राजनीतिक दल, नेता या दूसरे प्रभावशाली लोगों के बारे में दुष्प्रचार करना चाहते हैं, उन्हें एक मजबूत तकनीकी हथियार मिल गया है। अभी हाल तक किसी नेता के नाम से प्रचारित किए गए किसी आपत्तिजनक बयान को हम तब तक मानने से इनकार करते रहे हैं, जब तक कि हम खुद उस नेता की आवाज में वह बयान न सुन लें या फिर वही बयान देते हुए उनका वीडियो न देख लें। लेकिन अब क्या करेंगे?
अब तो किसी भी नेता को कोई भी बयान देते हुए ऐसा वीडियो बनाया जा सकता है, जो एकदम असली लगता हो। जो व्यक्ति इस तरह की जालसाजी का शिकार हुआ है, वह भले ही कितनी भी सफाई देता रहे, लेकिन सोशल मीडिया पर ऐसे वीडियो के लाखों-करोड़ों लोगों तक पहुंच जाने के बाद सच्चाई की परवाह कौन करेगा? तब तक तो उसकी प्रतिक्रिया में भी न जाने क्या-कुछ कहा जा चुका होता है। बहरहाल, इस प्रक्रिया में न सिर्फ सामाजिक वातावरण दूषित हो चुका होता है, बल्कि चुनाव भी प्रभावित हो चुका होता है। लोकतंत्र में लोगों के भरोसे व सच्चाई को चोट लग चुकी होती है।
अपना एक अनुभव बताता हूं। मैंने एक सोशल मीडिया प्लेटफॉर्म पर आने वाले ऐसे कई झूठे वीडियो को रिपोर्ट किया, जिनमें इन्फोसिस के अध्यक्ष एनआर नारायण मूर्ति जैसे लोगों को दिखाया गया है। एक वीडियो में नारायण मूर्ति कहते हैं कि भारत में एक ऐसा मोबाइल एप्लीकेशन बना लिया गया है, जो शेयर बाजार में पैसे लगाकर आपको मालामाल कर सकता है। इसके बाद उस मोबाइल एप्लीकेशन का विज्ञापन सामने आता है।
यह नारायणमूर्ति का डीपफेक वीडियो है। यह बात एकदम स्पष्ट दिखाई देती है, लेकिन फिर भी, और मेरे अनेक बार रिपोर्ट करने के बाद भी, वह वीडियो उसी तरह दिखाया जाता रहा। इस बीच न जाने कितने लोगों ने उस वीडियो पर विश्वास करके वह मोबाइल एप्लीकेशन खरीदा होगा और कौन जाने वह एप्लीकेशन सचमुच निवेश के लिए ही था या फिर अपने यूजर्स के साथ कोई धोखाधड़ी करने के लिए।
यह इस बात का उदाहरण है कि डीपफेक का कितना घातक इस्तेमाल किया जा सकता है, न सिर्फ राजनीति जीवन में, बल्कि आम जीवन में भी। जब कोई बड़ा व्यक्ति कुछ कह रहा हो तो लोगों के लिए विश्वास करना स्वाभाविक हो जाता है। जरा सोचिए, अगर किसी नामचीन व्यक्ति के मुंह से कोई भी बयान दिलवाया जा सकता है, तो उन्हें किसी भी आपत्तिजनक स्थिति में दिखाना भी कितना आसान होगा। अब तो कुछ लोग बाकायदा डीपफेक का कारोबार कर रहे हैं। उनके पास ग्राहक आते हैं और मनचाहे वीडियो बनवाते हैं। इनमें राजनीतिक दलों के लोग भी जरूर होंगे।
भले ही विशेषज्ञों को ऐसे वीडियो की पहचान हो, लेकिन आम आदमी इन्हें नहीं पहचान सकेगा। इसी तरह, किसी खास समुदाय के वोट काटने के लिए उसके खिलाफ किसी नेता का डीपफेक बनवा कर उसे वायरल किया जा सकता है। बयानों को तोड़ना-मरोड़ना तो आसान बात है और एआई के आने से पहले भी होता रहा है। किसी जमाने में लोगों के फोटोग्राफ या आवाज के साथ छेड़छाड़ के मामले देखने को मिलते थे, लेकिन वैसे अपराध अब बच्चों के खेल लगते हैं। हालांकि केंद्र सरकार ऐसे मामलों को लेकर सजग है और वह डीपफेक तथा आनलाइन दुष्प्रचार की रोकथाम के लिए कानूनों को कड़ा बनाने में लगी है।
सूचना प्रौद्योगिकी नियम-2021 के नियम 3(2) के तहत साफ उल्लेख है कि किसी व्यक्ति को इलेक्ट्रॉनिक रूप से गलत प्रतिरूपण करके दिखाना अपराध है और इसकी जिम्मेदारी उन मंचों पर भी आती है, जहां से उसे दिखाया जा रहा है। फेसबुक, यूट्यूब और ट्विटर जैसी कंपनियों को बाध्य किया गया है कि अगर उन्हें किसी डीपफेक वीडियो की शिकायत की जाती है, तो उन्हें 24 घंटे के भीतर ऐसे ‘डीपफेक’ को हटाना होगा। लेकिन जैसा कि ऊपर एक उदाहरण दिया गया है, कानूनों का अनुपालन कितनी ऐसे मामलों के अपराधियों तक पहुंच पाना भी आसान नहीं है। किसने, कब वीडियो वायरल किया और खुद इंटरनेट की अंधेरी गलियों में खिसक गया, कौन जाने।
एआई जहां चीजें पैदा कर सकती है, वहीं उन्हें पहचानने में भी मदद कर सकती है। जैसे चैटजीपीटी से अगर आपने कोई लेख लिखवाया, तो उसे आसानी से पहचाना जा सकता है, इसके लिए तकनीक उपलब्ध है। इसी तरह से डीपफेक वीडियो और नकली फोटोग्राफ को पहचानने वाली तकनीकें भी विकसित की जा रही हैं, लेकिन उनको हम तक पहुंचने में समय लगेगा। तब तक कुछ तरकीबें जिनका प्रयोग इन्हें पहचानने के लिए किया जा सकता है, वे ये हैं- वीडियो को जूम इन करके देखिए।
डीपफेक वीडियो में दिख रहे लोगों के बालों, कपड़ों, चेहरे के फीचर्स आदि में वैसी स्वाभाविकता नहीं होगी, जैसी कि सामान्य रूप से होती है, जैसे बालों की बनावट और रंग कहीं ऐसे और कहीं वैसे हों। क्या व्यक्ति के होंठ बोली गई ध्वनि के लिहाज से सही ढंग से हिल रहे हैं? हो सकता है कि उनके बीच अंतर दिखाई दे। भावनाओं को देखिए- खुशी की बात करते समय व्यक्ति का चेहरा क्या कह रहा है? क्या वह सपाट है या फिर निराश दिख रहा है? रंगों को देखिए, उनमें अस्वाभाविकता हो सकती है। जूम इन करने पर चित्रों के पिक्सल फटे हुए भी दिखाई दे सकते हैं।
जरूरत इस बात की है कि एक तरफ तो कानूनों को सख्ती से लागू किया जाए और दूसरी तरफ लोगों को जागरूक किया जाए ताकि न सिर्फवे ऐसे नकली वीडियो, फोटो और ध्वनि को पहचान सकें, बल्कि उन्हें आगे बढ़ाने से भी बचें।
टिप्पणियाँ