ईसा ब्लागडेन ने 1869 में प्रकाशित अपनी पुस्तक में लिखा था, ‘‘यदि झूठ को पर्याप्त बार बोला जाता है तो यह अर्ध-सत्य बन जाता है और यदि ऐसा आधा सच बार-बार दोहराया जाता है, तो यह एक हठधर्मिता बन जाती है और लोग इसके लिए जान भी दे सकते हैं।’’ कम्युनिज्म का सिद्धांत भी यही है।
जब कोई विचार बार-बार दोहराया जाए, तो यह मानव मन की विश्वास प्रणाली में गहराई से घर कर जाता है। विचारों की पुनरावृत्ति के माध्यम से मस्तिष्क के तंत्रिका नेटवर्क को महत्वपूर्ण तरीके से पुनर्निर्मित किया जा सकता है। मानव मस्तिष्क में भावना उत्पन्न करने वाली इकाई अमिग्डाला, हिप्पोकैम्पस यानी स्मृति इकाई और गैंग्लिया, जो आदत निर्माण के लिए जिम्मेदार होती है, व्यक्ति द्वारा धारण किए गए विश्वासों के माध्यम से परिवर्तन से गुजरती हैं। अमिग्डाला को नकारात्मक भावों और सामान्य बेचैनी जैसी प्रतिक्रियाएं देने के लिए जिम्मेदार माना जाता है। यही कारण है कि एक बार जब कोई व्यक्ति किसी पर विश्वास करना शुरू कर देता है, तो उसकी रक्षा के लिए वह किसी भी हद तक चला जाता है, क्योंकि उसका तंत्रिका तंत्र अपने अस्तित्व के लिए उससे यह अपेक्षा करता है।
सत्ता की लालसा रखने वाले लोग ब्रेनवाश कर विचारों को दूषित कर हमेशा इसका लाभ उठाते हैं। नहीं तो कोई युवक दूसरों के लिए अपनी जान क्यों देना चाहेगा, वह भी अपने किसी उद्देश्य के लिए नहीं, बल्कि सिर्फ उस व्यक्ति के निर्देशों का पालन करने के लिए जो 1400 वर्ष पहले मर चुका हो? दरअसल, उसके समुदाय ने उसके मन में झूठ भरा, जो उसकी विश्वास प्रणाली बन गया। कुछ लोग प्रधानमंत्री नरेंद्र मोदी पर भ्रष्टाचार का आरोप क्यों लगाते हैं, जबकि उनके खिलाफ न तो कोई साक्ष्य है और न ही इसके कोई संकेत हैं। वास्तव में ऐसे लोग अपने विचारों के लिए जिस व्यक्ति पर भरोसा करते हैं, उसने उनके दिमाग में सिर्फ झूठ भरा है।
झूठ के प्रचार से बढ़ता सिरदर्द
अत्याचारियों के विरुद्ध असंतोष को खत्म करने और कुछ लोगों की राजनीतिक महत्वाकांक्षाओं को पूरा करने के लिए भले लोगों के विरुद्ध बार-बार झूठ को प्रचारित किया जाता है। अब कृत्रिम बुद्धिमता (एआई) के रूप में उन्हें एक नया टूल मिल गया है। कारण गढ़े जा रहे हैं और एआई के साथ ये झूठे ‘प्रमाण’ और अधिक प्रभावी होते जा रहे हैं। तभी एक समूह की अतार्किकता के कारण विख्यात दार्शनिक सुकरात की हत्या कर दी गई थी। इस समूह ने उसकी फांसी के पक्ष में गलत तरीके से मतदान किया था।
तर्क हीन लोगों का समूह न हो, ऐसा व्यावहारिक तौर पर असंभव है, लेकिन जिनका उन पर नियंत्रण होता है, वे उन्हें एकजुट करने और उनका शोषण करने में सक्षम होते हैं। उनका यही खतरनाक नियंत्रण समूह के लोगों की क्षमता से अधिक बड़ा काम करवाने का सामर्थ्य प्रदान करता है, जैसे कि सुकरात की हत्या की कल्पना करना। ठीक इसी तरह से एआई भारत में सक्रिय राष्ट्र विरोधी शक्तियों की मदद कर रही है।
बीते कुछ वर्षों में एआई तकनीक ने लोगों को अन्य लोगों की तरह दिखने और बोलने की क्षमता देने की सीमा पार कर ली है। डीपफेक ने न केवल भ्रम, संदेह और गलत सूचना का प्रसार किया है, बल्कि गोपनीयता और सुरक्षा के लिए भी खतरा बन गया है। इस तकनीक के जरिए किसी का भी भरोसा जीतने के साथ साइबर अपराधी फिशिंग या पहचान की चोरी को अंजाम दे सकते हैं। इसी वर्ष की फरवरी की घटना है।
साइबर अपराधियों ने डीपफेक तकनीक का उपयोग कर एक बहुराष्ट्रीय कंपनी के एक वित्त कर्मचारी के साथ जूम मीटिंग में खुद को कंपनी के मुख्य वित्तीय अधिकारी के रूप में पेश किया और उसे 2.5 करोड़ डॉलर भुगतान करने को कहा। हांगकांग पुलिस के अनुसार, वित्त कर्मचारी ने सोचा कि उस बैठक में कंपनी के अन्य सदस्य भी थे, इसलिए उसने 2.5 करोड़ डॉलर दे दिए। बाद में पता चला कि वह डीपफेक का शिकार हो गया है।
हम तर्कशील लोग हैं। हम आंख मूंदकर किसी भी चीज पर भरोसा नहीं करते। ऋग्वेद का नासदीय सूक्त (10:129) कहता है कि ब्रह्मांड एक खुला स्थान है, जिसकी सीमाएं नहीं हैं, कोई अंत नहीं है। इसकी लंबाई, चौड़ाई, ऊंचाई और गहराई अनंत है। लेकिन ब्रह्मांड की उत्पत्ति कैसे और क्यों हुई? इस प्रकार, ऋग्वेद हमें हर चीज पर सवाल उठाने और तथ्यों की जांच-परख कर सच का पता लगाने के लिए कहता है।
खगोलशास्त्री कार्ल सागन ने भारत की ‘महान ब्रह्मांडीय रहस्यों के समक्ष संदेहपूर्ण प्रश्न पूछने और नि:स्वार्थ विनम्रता की परंपरा’ पर चर्चा करते हुए इसे उद्धृत किया है। लेकिन हमारे इतिहास में अनगिनत घुसपैठों और स्वतंत्रता के बाद वंश परंपरा की स्थापना के कारण हमारी वह क्षमता क्षीण हो गई। अब हम एआई जैसे नए उभरते उपकरणों से छेड़छाड़ के प्रति संवेदनशील हैं। हालांकि यह छेड़छाड़ हमारे लिए चिंता उत्पन्न कर रही है।
यह कोई नया खतरा नहीं है। एक अरसा पहले मनोवैज्ञानिक युद्ध का एक दौर शुरू हुआ था। मैकियावेली, गोएबल्स, माओ, ब्रिटिश राज आदि सभी गलत सूचनाओं और हेरफेर के इस खेल में अग्रणी थे, क्योंकि इसमें प्रौद्योगिकी की उतनी आवश्यकता नहीं होती, जितनी मानव मस्तिष्क की समझ की होती है। प्रौद्योगिकी केवल प्रसार का एक माध्यम है, लेकिन इसका विकास वास्तव में खतरे, इसके पैमाने और पहुंच में वृद्धि कर रहा है। साथ ही, इसकी लागत को काफी कम कर रहा है, जिससे वास्तविक अपराध की तुलना में इसका मुकाबला करना कठिन हो गया है। डीपफेक का पता लगाना और कठिन होता जा रहा है, क्योंकि डीपफेक बनाने वाली तकनीक अधिक परिष्कृत होती जा रही है।
2018 में अमेरिकी शोधकर्ताओं ने अपने शोध में पाया कि डीपफेक चेहरे इनसानों की तरह पलकें नहीं झपकाते। इससे यह पता लगाया जा सकता था कि चित्र और वीडियो असली थे या नकली। लेकिन जैसे ही यह शोध रिपोर्ट प्रकाशित हुई, डीपफेक तैयार करने वालों ने इस कमी को दूर कर दिया, जिससे डीपफेक का पता लगाना और कठिन हो गया। वास्तव में जो शोध डीपफेक का पता लगाने में मदद करने के लिए डिजाइन किया गया, वह डीपफेक तकनीक को बेहतर बनाने में मदद करने के साथ ही समाप्त हो गया।
एआई से आनलाइन मनोवैज्ञानिक हेरफेर
‘द प्रेजेंटेशन आफ सेल्फ इन एवरीडे लाइफ’ पुस्तक में समाजशास्त्री इरविंग गोफमैन कहते हैं कि कैसे लोग अपने व्यक्तित्व के एक अलग संस्करण को चित्रित करने के लिए अन्य लोगों की उपस्थिति में अपने व्यवहार को बदलते हैं, जो अधिक ‘नियंत्रित’ प्रभाव पैदा करके सामाजिक रूप से अधिक स्वीकार्य या लाभकारी हो सकता है।
आज के डिजिटल युग में इस सहकर्मी समूह को तेजी से सोशल मीडिया अकाउंट्स द्वारा प्रतिस्थापित किया जा रहा है, जो वास्तविक लोगों, फर्जी अकाउंट या जाने-पहचाने लगने वाले, परंतु कृत्रिम लोगों का अनुशंसित समूह हो सकता है। सोशल मीडिया पर ऐसे कृत्रिम परिचित और संगठन बनाने में एआई का इस्तेमाल किया जाता है, जो वहां भारी मात्रा में मौजूद डेटा के दोहन को काफी आसान बना देता है।
यह कृत्रिम सहकर्मी समूह अपने कृत्रिम व्यवहार से लक्ष्य को शिकार बनाता है, जिसमें हमारे जैसे सामान्य करदाता भी शामिल होते हैं। पहले इसका इस्तेमाल प्रभावशाली लोगों से सूचनाएं एकत्र करने के लिए हनी ट्रैप तक सीमित था, लेकिन अब एआई टूल के साथ इसका विस्तार मतदाताओं को प्रभावित करने तक हो गया है।
आपको याद होगा, 2010 के दशक में ब्रिटिश परामर्श कंपनी कैम्ब्रिज एनालिटिका ने राजनीतिक उद्देश्य से बिना सहमति लिए लाखों फेसबुक उपयोगकर्ताओं का व्यक्तिगत डेटा चुरा लिया था। एआई का उपयोग करते हुए यह आम लोगों के खिलाफ बहुत सस्ता और व्यवहार्य लक्षित हमला बन गया है, जिसे विश्व स्तर पर बड़े पैमाने पर इस्तेमाल किया जा रहा है। लेकिन एआई का इस्तेमाल लक्षित हमले तक ही सीमित नहीं है। यह गलत सूचना के निर्माण में भी सहायता कर रहा है।
फर्जी खबरों की परख कठिन
जेनेरेटिव एडवर्सरियल नेटवर्क (जीएएन) नामक एक आधुनिक एआई तकनीक इन दिनों फैल रही अधिकांश फर्जी खबरों के केंद्र में है। कंटेंट तैयार करने में जीएएन का इस्तेमाल किया जा रहा है। एआई-जनित कंटेंट, जिसमें फर्जी समाचार, लेख, चित्र और वीडियो शामिल होते हैं, जो सच और झूठ के बीच अंतर को धुंधला करने की क्षमता रखते हैं। यह तकनीकी प्रगति तेजी से डिजिटल होती दुनिया में ज्ञान की ज्ञानमीमांसीय नींव और सत्य की प्रकृति के बारे में गहन प्रश्न उठाती है, जिससे इसके सामाजिक निहितार्थों की विचारशील जांच आवश्यक हो जाती है। इसी तकनीक यानी जीएएन का उपयोग करके बनाए गए वीडियो और छवियों को डीप फेक कहा जाता है। यह गंभीर चिंता का विषय है, खासकर इस चुनावी माहौल में कुछ विपक्षी दल विघटनकारी शक्तियों के साथ समझौता कर लोकसभा चुनावों को प्रभावित करने के प्रयासों में जुटे हुए हैं।
डीपफेक किसी व्यक्ति को किस तरह से प्रभावित करता है, इसका एक उदाहरण इस्राएल-हमास संघर्ष के दौरान दिखा। 7 अक्तूबर 2023 को हमास ने इस्राएल पर ताबड़तोड़ हमले किए थे, इस्राएल ने जवाबी कार्रवाई की जो आज भी जारी है। तब मीडिया या सोशल मीडिया में जो विमर्श गढ़े गए, उससे तो सब परिचित ही होंगे। लेकिन इस्राएल विरोधियों ने क्या किया था, उसके बारे में बहुत कम लोग जानते हैं। दरअसल, इस्राएल विरोधी शक्तियों ने एआई तक का उपयोग कर एक जले हुए बच्चे की तस्वीर से छेड़छाड़ कर उसे सोशल मीडिया पर फैला दिया था।
महत्वपूर्ण बात यह है कि इस्राएल के प्रधानमंत्री बेंजामिन नेतन्याहू भी इस झांसे में आ गए और उस तस्वीर को सोशल मीडिया पर साझा कर दिया। बाद में जब इसकी जांच की गई तो पता चला कि तस्वीर असली थी और बच्चा इस्राएली हमले में नहीं झुलसा था, बल्कि हमास ने उसे माइक्रोवेव में जला दिया था। लेकिन फोटो को इस तरह प्रस्तुत किया गया था कि यह सब इस्राएल ने किया है।
सौभाग्य से डीपफेक का पता लगाने वाले उपकरण मौजूद हैं और इन्हें विकसित करना बहुत कठिन नहीं है। समस्या यह है कि कोई भी व्यक्ति सोशल मीडिया पर तैरते कंटेंट का फैक्ट चेक करने की कोशिश नहीं करता। आनलाइन माध्यमों, विशेष तौर पर सोशल मीडिया की लत के कारण लोग खुद पर ही ध्यान नहीं दे पाते। इसलिए उनके पास व्हाट्सएप, फेसबुक, इंस्टाग्राम आदि माध्यमों से जो कंटेंट आते हैं, वे उन्हें बिना सोचे-समझे आगे बढ़ा देते हैं।
दूसरा कारण यह है कि एक बार जब लोग किसी एक विचार के प्रति थोड़ा आकर्षित हो जाते हैं, तो एआई-संचालित वैयक्तिकरण एल्गोरिदम उन्हें अपनी मान्यताओं को मजबूत करने, उन्हें तीव्र करने के लिए ध्रुवीकृत सामग्री की पेशकश करते रहते हैं, भले ही वे गलत सूचना पर आधारित हों, लोगों को सूचनात्मक (या गलत सूचनात्मक) शिकंजे में जकड़ लेता है। यानी यह एक ऐसा ‘इको चैम्बर’ (प्रतिध्वनि-कक्ष) बनाता है, जहां व्यक्ति को वह सब मिलता है, जो वह सुनना चाहता है। इस तरह वह एक ऐसे चरण पर पहुंच जाता है, जहां वह और कुछ नहीं सुनता, जैसा कि कैस सन स्टीन की पुस्तक ‘रिपब्लिक.कॉम 2.0’ में बताया गया है।
लोकतंत्र खतरे में है!
हाल ही में टेक कंपनी माइक्रोसॉफ्ट ने चेतावनी दी है कि चीनी हैकर्स एआई टूल्स का इस्तेमाल कर लोकसभा चुनाव में मतदाताओं को प्रभावित कर सकते हैं। माइक्रोसॉफ्ट ने कहा है कि चीन एआई जनित कंटेंट का उपयोग करके भारत के अलावा अमेरिका और दक्षिण कोरिया में होने वाले चुनावों में हेर-फेर करने की कोशिश कर सकता है। इससे पहले चीन ताइवान में इस वर्ष जनवरी में हुए राष्ट्रपति चुनाव को प्रभावित करने के लिए एआई जनित कंटेंट का परीक्षण कर चुका है।
माइक्रोसॉफ्ट की चेतावनी को लोकतंत्र पर मंडरा रहे खतरे के तौर पर देखा जाना चाहिए। ‘स्टॉर्म 1376’ नामक बीजिंग समर्थित समूह ने ताइवान में चुनाव के दौरान कुछ उम्मीदवारों को बदनाम करने के लिए एआई जनित मीम्स और नकली आडियो कंटेंट प्रसारित किया था। माइक्रोसॉफ्ट ने अपनी थ्रेट इंटेलिजेंस टीम की एक रिपोर्ट में कहा कि 2024 में हाई-प्रोफाइल चुनावों को प्रभावित करने के लिए चीन समर्थित साइबर समूह उत्तर कोरिया के साथ मिल कर इसी तरह के हेर-फेर को अंजाम दे सकते हैं। इसके लिए वे सोशल मीडिया प्लेटफॉर्म के जरिए एआई जनित कंटेंट तैयार कर इंटरनेट पर फैलाएंगे।
कंपनी ने आगाह किया है कि एआई से तैयार कंटेंट के साथ चीन का प्रयोग आने वाले समय में प्रभावी साबित हो सकता है। इससे पहले भी सरकार को चेतावनी मिली थी कि चीनी हैकर्स एआई टूल्स के जरिए चुनाव को प्रभावित करना चाहते हैं। इसलिए प्रधानमंत्री नरेंद्र मोदी ने दिसंबर 2023 में डीपफेक के प्रति आगाह करते हुए नई तकनीक से सावधान रहने की चेतावनी दी थी। भारत, इंडोनेशिया और बांग्लादेश जैसे देश आनलाइन सामग्री पर अधिक बारीकी से निगरानी रखने और सोशल मीडिया पर गलत सूचना परोसने वाली सामग्री का विश्लेषण करने के लिए कानून पारित कर चुके हैं।
दरअसल, चीन की कम्युनिस्ट पार्टी ने अपने राजनीतिक तंत्र की पूरी तरह से हैकिंग करने के बाद अपने दायरे को वैश्विक स्तर तक विस्तारित किया है। चीन अपने यहां इस तकनीक का इस्तेमाल उइगरों का ब्रेनवाश करने में कर रहा है। चीन के अन्हुई प्रांत में हेफेई के एक एआई संस्थान का कहना है कि उसने एक ऐसा सॉफ्टवेयर विकसित किया है, जो कम्युनिस्ट पार्टी के सदस्यों की वफादारी का आकलन कर सकता है। इससे लोगों में आक्रोश बढ़ा है।
विशेषज्ञों का कहना है कि चीन ने अपनी एआई संचालित निगरानी क्षमता को बहुत प्रभावी बना लिया है। इसमें बड़े पैमाने पर डेटा, लर्निंग मशीन, चेहरे की पहचान और एआई का उपयोग कर उसने अपने लोगों के दिमाग को पढ़ने की क्षमता विकसित कर ली है, जिसे ‘डिजिटल तानाशाही’ का नाम दिया गया है। अपने यहां ब्रेनवॉश करने की क्षमता को विकसित करने के बाद अब चीन ने वैश्विक स्तर पर यही अभियान चलाया है।
शुरुआत में जब हैकर्स किसी लक्ष्य पर हमला करते थे, तो सबूत छोड़ जाते थे। इस कारण जांच अधिकारी उन तक पहुंच जाते थे। लेकिन हैकर्स ने लंबे समय तक अमेरिका के विरुद्ध बड़े पैमाने पर सूचना संपत्ति की चोरी के लिए अभियान चलाया और धीरे-धीरे अपनी क्षमताएं इतनी विकसित कर लीं कि अब वे एआई का इस्तेमाल कर सीमाओं के पार कहीं अधिक जटिल हमलों और मनोवैज्ञानिक युद्ध में निपुण हो गए हैं।
कांग्रेस ने कहा था कि वह अपने घोषणापत्र में चीन की कम्युनिस्ट पार्टी के साथ संबंधों को फिर से स्थापित करने के मुद्दे को शामिल करेगी। इसलिए यहां इन बिंदुओं को जोड़ना बहुत मुश्किल नहीं है। इस बारे में बहुत स्पष्ट संकेत हैं कि 2024 के लोकसभा चुनावों में सीसीपी किसका अवैध और अनैतिक रूप से समर्थन कर रही है और किसके नेतृत्व में हम उत्तर-पूर्वी क्षेत्रों में अपनी मातृभूमि के कुछ हिस्सों को पीएलए के हाथों खो देंगे। साथ ही, कई अन्य आर्थिक, भू-राजनीतिक और रक्षा नुकसान भी होंगे।
दरअसल, लगातार हार की हताशा एक व्यक्ति को सभी सीमाएं लांघने, अपने देश के दुश्मनों से सांठगांठ करने और अपने ही घर को जलाने के लिए मजबूर कर देती है। कृत्रिम बुद्धिमत्ता एल्गोरिदम के माध्यम से सूचना में हेराफेरी और इको चैम्बर्स का निर्माण सार्वजनिक क्षेत्र के प्रभावी ढंग से कार्य करने के लिए आवश्यक शर्तों को कमजोर कर देता है, जिससे संभावित रूप से लोकतांत्रिक प्रक्रियाओं के मूलभूत सिद्धांत खतरे में पड़ जाते हैं।
व्यवहार, बिक्री के लिए डेटा ट्रेडिंग व्यक्तिगत डेटा को एक वस्तु में बदल देती है और इसका उपयोग भविष्यवाणी करने और व्यवहार को प्रभावित करने के लिए करती है। एआई एल्गोरिदम बड़ी मात्रा में व्यक्तिगत डेटा माइनिंग और विश्लेषण के लिए एक उपकरण बन गया है। अक्सर स्पष्ट सहमति के बिना लाभ के लिए व्यवहार में सूक्ष्म रूप से हेरफेर किया जाता है। डिजिटल युग में ‘निगरानी पूंजीवाद’ एक व्यापक घटना है, जो व्यक्तिगत डेटा को एक मूल्यवान वस्तु में बदल देती है।
इसमें मानव व्यवहार की भविष्यवाणी करने, प्रभावित करने और नियंत्रित करने के लिए बड़ी मात्रा में व्यक्तिगत डेटा की व्यवस्थित निगरानी, संग्रह और विश्लेषण शामिल है। एल्गोरिदम के उपयोग के माध्यम से कृत्रिम बुद्धिमत्ता (एआई) इस प्रक्रिया में महत्वपूर्ण भूमिका निभाती है, जिससे व्यक्तिगत डेटा को ऐसे पैमाने पर निकालने और जांचने में मदद मिलती है, जो एआई के उपयोग के बिना असंभव होगा। यह अक्सर उन लोगों की स्पष्ट सहमति के बिना हो सकता है, जिनका डेटा संसाधित किया जा रहा है। परिणामस्वरूप व्यावहारिक हेरफेर का एक सूक्ष्म, लेकिन व्यापक रूप सामने आता है, जो लाभ के उद्देश्यों से प्रेरित होता है।
कैसे काम करते हैं डीपफेक?
डीपफेक को कई तरीकों से अंजाम दिया जा सकता है। OpenAI Sora जैसे टूल का उपयोग करके कोई भी पूरी तरह से काल्पनिक वीडियो बना सकता है। मनचाहा वीडियो बनाने के लिए केवल वैसी स्क्रिप्ट लिखनी होती है। इसके बाद यह टूल उसके निर्देशानुसार वीडियो बना देता है। OpenAI Sora से पहले भी ऐसे टूल थे, जिनके जरिए वीडियो में चेहरे और आवाजें बदली ला सकती थीं। लेकिन उनका इस्तेमाल अपराधों तक सीमित था। अब डीपफेक का इस्तेमाल अपराधों से परे स्वतंत्र एवं निष्पक्ष चुनाव जैसी लोकतांत्रिक प्रक्रियाओं पर सक्रिय हमले के लिए किया जाने लगा है।
डीपफेक से जुड़े सामान्य अपराधों में ‘रिवेंज पोर्नोग्राफी’ शामिल है। इसमें पीड़ित का चेहरा अश्लील वीडियो में लगा दिया जाता है और उसे बदनाम करने के लिए वीडियो को प्रसारित किया जाता है। पश्चिम में झूठी दलील और सबूत तैयार करने के लिए ऐसे अपराध सामान्य हैं। किसी अपराध को अंजाम देने वाले फर्जी वीडियो या चित्र या आडियो प्रस्तुत करके निर्दोष लोगों को निशाना बनाया जा सकता है। या किसी व्यक्ति या व्यक्तियों के समूह को किसी अवांछित गतिविधि में शामिल अन्य लोगों के वीडियो पर उनके चेहरे लगाकर उन्हें फंसाया या बदनाम किया जा सकता है।
खासतौर से राजनेताओं, नौकरशाहों और नामचीन हस्तियों को इससे सतर्क रहने की जरूरत है, क्योंकि उनकी आवाज और चेहरे का इस्तेमाल कर दो समुदायों के बीच नफरत फैलाने में किया जा सकता है। उनके भाषण तैयार कर साम्प्रदायिक हिंसा भड़का कर सामाजिक सौहार्द को बिगाड़ा जा सकता है। इसके अलावा, डीपफेक वीडियो या आडियो का उपयोग करके अपराधी अपनी पहचान छिपाकर लोगों से दुर्व्यवहार और उनका उत्पीड़न कर सकते हैं।
वैसे तो आतंकी अपना चेहरा दिखाने और हमलों की जिम्मेदारी लेने का दावा करने में गर्व महसूस करते हैं, लेकिन डीपफेक का उपयोग किसी मरे हुए आतंकी को जीवित दिखाने में भी किया जा सकता है। इससे उनके समर्थकों का मनोबल बढ़ता है और अधिकारियों को भी भ्रमित किया जा सकता है। साथ ही, इसका उपयोग उन समुदायों या लोगों के समूह के बीच प्रसार और नफरत फैलाने के लिए किया जा सकता है, जो आतंकी संगठनों में शामिल होने के इच्छुक हों।
इनका उपयोग फिशिंग जैसे सोशल इंजीनियनिंग हमलों के लिए भी किया जा सकता है। जैसे- पीड़ित का करीबी होने का दिखावा कर पासवर्ड मांगना, कुछ व्यवहार को प्रोत्साहित करने के लिए सेलिब्रिटी वीडियो का उपयोग कर संगठनों और बैंकों से संवेदनशील व्यक्तिगत डेटा मांगना, किसी संगठन या सरकारी निकायों के अधिकारियों के रूप में अनुमोदन या धन हस्तांतरण के लिए अनुरोध भेजना।
फिल्म अभिनेता आमिर खान डीपफेक के ताजा शिकार हैं। हाल ही में एक राजनीतिक पार्टी का कथित तौर पर प्रचार करने को लेकर उनका एक वीडियो वायरल हुआ। इसके आधार पर यह खबर आई कि वे एक राजनीतिक पार्टी का समर्थन कर रहे हैं। इस वीडियो को फर्जी बताते हुए उन्होंने पुलिस से इसकी शिकायत की। हालांकि जीएएन एक बहुत बढ़िया टूल है, जिसका उपयोग मार्केटिंग, वीडियो कॉन्फ्रेंसिंग पर बैंडविड्थ बचाने, शैक्षिक सामग्री बनाने जैसे कामों में लाया जा सकता है। लेकिन यह देश और समाज के लिए खतरा भी उत्पन्न करता है, क्योंकि अपराधी या राष्ट्र विरोधी तत्व इसका इस्तेमाल कर देश और समाज को नुकसान पहुंचा सकते हैं।
टिप्पणियाँ