फर्जी चाल-ढाल, खतरनाक मायाजाल
May 9, 2025
  • Read Ecopy
  • Circulation
  • Advertise
  • Careers
  • About Us
  • Contact Us
android app
Panchjanya
  • ‌
  • विश्व
  • भारत
  • राज्य
  • सम्पादकीय
  • संघ
  • वेब स्टोरी
  • जीवनशैली
  • अधिक ⋮
    • विश्लेषण
    • लव जिहाद
    • खेल
    • मनोरंजन
    • यात्रा
    • स्वास्थ्य
    • संस्कृति
    • पर्यावरण
    • बिजनेस
    • साक्षात्कार
    • शिक्षा
    • रक्षा
    • ऑटो
    • पुस्तकें
    • सोशल मीडिया
    • विज्ञान और तकनीक
    • मत अभिमत
    • श्रद्धांजलि
    • संविधान
    • आजादी का अमृत महोत्सव
    • मानस के मोती
    • लोकसभा चुनाव
    • वोकल फॉर लोकल
    • जनजातीय नायक
    • बोली में बुलेटिन
    • पॉडकास्ट
    • पत्रिका
    • ओलंपिक गेम्स 2024
    • हमारे लेखक
SUBSCRIBE
  • ‌
  • विश्व
  • भारत
  • राज्य
  • सम्पादकीय
  • संघ
  • वेब स्टोरी
  • जीवनशैली
  • अधिक ⋮
    • विश्लेषण
    • लव जिहाद
    • खेल
    • मनोरंजन
    • यात्रा
    • स्वास्थ्य
    • संस्कृति
    • पर्यावरण
    • बिजनेस
    • साक्षात्कार
    • शिक्षा
    • रक्षा
    • ऑटो
    • पुस्तकें
    • सोशल मीडिया
    • विज्ञान और तकनीक
    • मत अभिमत
    • श्रद्धांजलि
    • संविधान
    • आजादी का अमृत महोत्सव
    • मानस के मोती
    • लोकसभा चुनाव
    • वोकल फॉर लोकल
    • जनजातीय नायक
    • बोली में बुलेटिन
    • पॉडकास्ट
    • पत्रिका
    • ओलंपिक गेम्स 2024
    • हमारे लेखक
Panchjanya
panchjanya android mobile app
  • होम
  • विश्व
  • भारत
  • राज्य
  • सम्पादकीय
  • संघ
  • वेब स्टोरी
  • जीवनशैली
  • विश्लेषण
  • मत अभिमत
  • रक्षा
  • संस्कृति
  • पत्रिका
होम भारत

फर्जी चाल-ढाल, खतरनाक मायाजाल

देश की कुछ शक्तियां सत्ता हासिल करने के लिए विदेशी ताकतों से साठगांठ कर भारत के लोकतांत्रिक ढांचे के लिए खतरा उत्पन्न कर रहीं। हाल ही में माइक्रोसॉफ्ट ने सरकार को आगाह किया कि लोकसभा चुनाव में एआई जनित फर्जी आॅडियो-वीडियो से मतदाताओं को प्रभावित करने के प्रयास किए जा सकते हैं

by अरुष बरतरिया
May 1, 2024, 10:15 am IST
in भारत, विश्लेषण
FacebookTwitterWhatsAppTelegramEmail

ईसा ब्लागडेन ने 1869 में प्रकाशित अपनी पुस्तक में लिखा था, ‘‘यदि झूठ को पर्याप्त बार बोला जाता है तो यह अर्ध-सत्य बन जाता है और यदि ऐसा आधा सच बार-बार दोहराया जाता है, तो यह एक हठधर्मिता बन जाती है और लोग इसके लिए जान भी दे सकते हैं।’’ कम्युनिज्म का सिद्धांत भी यही है।

जब कोई विचार बार-बार दोहराया जाए, तो यह मानव मन की विश्वास प्रणाली में गहराई से घर कर जाता है। विचारों की पुनरावृत्ति के माध्यम से मस्तिष्क के तंत्रिका नेटवर्क को महत्वपूर्ण तरीके से पुनर्निर्मित किया जा सकता है। मानव मस्तिष्क में भावना उत्पन्न करने वाली इकाई अमिग्डाला, हिप्पोकैम्पस यानी स्मृति इकाई और गैंग्लिया, जो आदत निर्माण के लिए जिम्मेदार होती है, व्यक्ति द्वारा धारण किए गए विश्वासों के माध्यम से परिवर्तन से गुजरती हैं। अमिग्डाला को नकारात्मक भावों और सामान्य बेचैनी जैसी प्रतिक्रियाएं देने के लिए जिम्मेदार माना जाता है। यही कारण है कि एक बार जब कोई व्यक्ति किसी पर विश्वास करना शुरू कर देता है, तो उसकी रक्षा के लिए वह किसी भी हद तक चला जाता है, क्योंकि उसका तंत्रिका तंत्र अपने अस्तित्व के लिए उससे यह अपेक्षा करता है।

सत्ता की लालसा रखने वाले लोग ब्रेनवाश कर विचारों को दूषित कर हमेशा इसका लाभ उठाते हैं। नहीं तो कोई युवक दूसरों के लिए अपनी जान क्यों देना चाहेगा, वह भी अपने किसी उद्देश्य के लिए नहीं, बल्कि सिर्फ उस व्यक्ति के निर्देशों का पालन करने के लिए जो 1400 वर्ष पहले मर चुका हो? दरअसल, उसके समुदाय ने उसके मन में झूठ भरा, जो उसकी विश्वास प्रणाली बन गया। कुछ लोग प्रधानमंत्री नरेंद्र मोदी पर भ्रष्टाचार का आरोप क्यों लगाते हैं, जबकि उनके खिलाफ न तो कोई साक्ष्य है और न ही इसके कोई संकेत हैं। वास्तव में ऐसे लोग अपने विचारों के लिए जिस व्यक्ति पर भरोसा करते हैं, उसने उनके दिमाग में सिर्फ झूठ भरा है।

झूठ के प्रचार से बढ़ता सिरदर्द

अत्याचारियों के विरुद्ध असंतोष को खत्म करने और कुछ लोगों की राजनीतिक महत्वाकांक्षाओं को पूरा करने के लिए भले लोगों के विरुद्ध बार-बार झूठ को प्रचारित किया जाता है। अब कृत्रिम बुद्धिमता (एआई) के रूप में उन्हें एक नया टूल मिल गया है। कारण गढ़े जा रहे हैं और एआई के साथ ये झूठे ‘प्रमाण’ और अधिक प्रभावी होते जा रहे हैं। तभी एक समूह की अतार्किकता के कारण विख्यात दार्शनिक सुकरात की हत्या कर दी गई थी। इस समूह ने उसकी फांसी के पक्ष में गलत तरीके से मतदान किया था।

तर्क हीन लोगों का समूह न हो, ऐसा व्यावहारिक तौर पर असंभव है, लेकिन जिनका उन पर नियंत्रण होता है, वे उन्हें एकजुट करने और उनका शोषण करने में सक्षम होते हैं। उनका यही खतरनाक नियंत्रण समूह के लोगों की क्षमता से अधिक बड़ा काम करवाने का सामर्थ्य प्रदान करता है, जैसे कि सुकरात की हत्या की कल्पना करना। ठीक इसी तरह से एआई भारत में सक्रिय राष्ट्र विरोधी शक्तियों की मदद कर रही है।

बीते कुछ वर्षों में एआई तकनीक ने लोगों को अन्य लोगों की तरह दिखने और बोलने की क्षमता देने की सीमा पार कर ली है। डीपफेक ने न केवल भ्रम, संदेह और गलत सूचना का प्रसार किया है, बल्कि गोपनीयता और सुरक्षा के लिए भी खतरा बन गया है। इस तकनीक के जरिए किसी का भी भरोसा जीतने के साथ साइबर अपराधी फिशिंग या पहचान की चोरी को अंजाम दे सकते हैं। इसी वर्ष की फरवरी की घटना है।

साइबर अपराधियों ने डीपफेक तकनीक का उपयोग कर एक बहुराष्ट्रीय कंपनी के एक वित्त कर्मचारी के साथ जूम मीटिंग में खुद को कंपनी के मुख्य वित्तीय अधिकारी के रूप में पेश किया और उसे 2.5 करोड़ डॉलर भुगतान करने को कहा। हांगकांग पुलिस के अनुसार, वित्त कर्मचारी ने सोचा कि उस बैठक में कंपनी के अन्य सदस्य भी थे, इसलिए उसने 2.5 करोड़ डॉलर दे दिए। बाद में पता चला कि वह डीपफेक का शिकार हो गया है।

हम तर्कशील लोग हैं। हम आंख मूंदकर किसी भी चीज पर भरोसा नहीं करते। ऋग्वेद का नासदीय सूक्त (10:129) कहता है कि ब्रह्मांड एक खुला स्थान है, जिसकी सीमाएं नहीं हैं, कोई अंत नहीं है। इसकी लंबाई, चौड़ाई, ऊंचाई और गहराई अनंत है। लेकिन ब्रह्मांड की उत्पत्ति कैसे और क्यों हुई? इस प्रकार, ऋग्वेद हमें हर चीज पर सवाल उठाने और तथ्यों की जांच-परख कर सच का पता लगाने के लिए कहता है।

खगोलशास्त्री कार्ल सागन ने भारत की ‘महान ब्रह्मांडीय रहस्यों के समक्ष संदेहपूर्ण प्रश्न पूछने और नि:स्वार्थ विनम्रता की परंपरा’ पर चर्चा करते हुए इसे उद्धृत किया है। लेकिन हमारे इतिहास में अनगिनत घुसपैठों और स्वतंत्रता के बाद वंश परंपरा की स्थापना के कारण हमारी वह क्षमता क्षीण हो गई। अब हम एआई जैसे नए उभरते उपकरणों से छेड़छाड़ के प्रति संवेदनशील हैं। हालांकि यह छेड़छाड़ हमारे लिए चिंता उत्पन्न कर रही है।

यह कोई नया खतरा नहीं है। एक अरसा पहले मनोवैज्ञानिक युद्ध का एक दौर शुरू हुआ था। मैकियावेली, गोएबल्स, माओ, ब्रिटिश राज आदि सभी गलत सूचनाओं और हेरफेर के इस खेल में अग्रणी थे, क्योंकि इसमें प्रौद्योगिकी की उतनी आवश्यकता नहीं होती, जितनी मानव मस्तिष्क की समझ की होती है। प्रौद्योगिकी केवल प्रसार का एक माध्यम है, लेकिन इसका विकास वास्तव में खतरे, इसके पैमाने और पहुंच में वृद्धि कर रहा है। साथ ही, इसकी लागत को काफी कम कर रहा है, जिससे वास्तविक अपराध की तुलना में इसका मुकाबला करना कठिन हो गया है। डीपफेक का पता लगाना और कठिन होता जा रहा है, क्योंकि डीपफेक बनाने वाली तकनीक अधिक परिष्कृत होती जा रही है।

2018 में अमेरिकी शोधकर्ताओं ने अपने शोध में पाया कि डीपफेक चेहरे इनसानों की तरह पलकें नहीं झपकाते। इससे यह पता लगाया जा सकता था कि चित्र और वीडियो असली थे या नकली। लेकिन जैसे ही यह शोध रिपोर्ट प्रकाशित हुई, डीपफेक तैयार करने वालों ने इस कमी को दूर कर दिया, जिससे डीपफेक का पता लगाना और कठिन हो गया। वास्तव में जो शोध डीपफेक का पता लगाने में मदद करने के लिए डिजाइन किया गया, वह डीपफेक तकनीक को बेहतर बनाने में मदद करने के साथ ही समाप्त हो गया।

एआई से आनलाइन मनोवैज्ञानिक हेरफेर

‘द प्रेजेंटेशन आफ सेल्फ इन एवरीडे लाइफ’ पुस्तक में समाजशास्त्री इरविंग गोफमैन कहते हैं कि कैसे लोग अपने व्यक्तित्व के एक अलग संस्करण को चित्रित करने के लिए अन्य लोगों की उपस्थिति में अपने व्यवहार को बदलते हैं, जो अधिक ‘नियंत्रित’ प्रभाव पैदा करके सामाजिक रूप से अधिक स्वीकार्य या लाभकारी हो सकता है।

आज के डिजिटल युग में इस सहकर्मी समूह को तेजी से सोशल मीडिया अकाउंट्स द्वारा प्रतिस्थापित किया जा रहा है, जो वास्तविक लोगों, फर्जी अकाउंट या जाने-पहचाने लगने वाले, परंतु कृत्रिम लोगों का अनुशंसित समूह हो सकता है। सोशल मीडिया पर ऐसे कृत्रिम परिचित और संगठन बनाने में एआई का इस्तेमाल किया जाता है, जो वहां भारी मात्रा में मौजूद डेटा के दोहन को काफी आसान बना देता है।

यह कृत्रिम सहकर्मी समूह अपने कृत्रिम व्यवहार से लक्ष्य को शिकार बनाता है, जिसमें हमारे जैसे सामान्य करदाता भी शामिल होते हैं। पहले इसका इस्तेमाल प्रभावशाली लोगों से सूचनाएं एकत्र करने के लिए हनी ट्रैप तक सीमित था, लेकिन अब एआई टूल के साथ इसका विस्तार मतदाताओं को प्रभावित करने तक हो गया है।

आपको याद होगा, 2010 के दशक में ब्रिटिश परामर्श कंपनी कैम्ब्रिज एनालिटिका ने राजनीतिक उद्देश्य से बिना सहमति लिए लाखों फेसबुक उपयोगकर्ताओं का व्यक्तिगत डेटा चुरा लिया था। एआई का उपयोग करते हुए यह आम लोगों के खिलाफ बहुत सस्ता और व्यवहार्य लक्षित हमला बन गया है, जिसे विश्व स्तर पर बड़े पैमाने पर इस्तेमाल किया जा रहा है। लेकिन एआई का इस्तेमाल लक्षित हमले तक ही सीमित नहीं है। यह गलत सूचना के निर्माण में भी सहायता कर रहा है।

फर्जी खबरों की परख कठिन

जेनेरेटिव एडवर्सरियल नेटवर्क (जीएएन) नामक एक आधुनिक एआई तकनीक इन दिनों फैल रही अधिकांश फर्जी खबरों के केंद्र में है। कंटेंट तैयार करने में जीएएन का इस्तेमाल किया जा रहा है। एआई-जनित कंटेंट, जिसमें फर्जी समाचार, लेख, चित्र और वीडियो शामिल होते हैं, जो सच और झूठ के बीच अंतर को धुंधला करने की क्षमता रखते हैं। यह तकनीकी प्रगति तेजी से डिजिटल होती दुनिया में ज्ञान की ज्ञानमीमांसीय नींव और सत्य की प्रकृति के बारे में गहन प्रश्न उठाती है, जिससे इसके सामाजिक निहितार्थों की विचारशील जांच आवश्यक हो जाती है। इसी तकनीक यानी जीएएन का उपयोग करके बनाए गए वीडियो और छवियों को डीप फेक कहा जाता है। यह गंभीर चिंता का विषय है, खासकर इस चुनावी माहौल में कुछ विपक्षी दल विघटनकारी शक्तियों के साथ समझौता कर लोकसभा चुनावों को प्रभावित करने के प्रयासों में जुटे हुए हैं।

डीपफेक किसी व्यक्ति को किस तरह से प्रभावित करता है, इसका एक उदाहरण इस्राएल-हमास संघर्ष के दौरान दिखा। 7 अक्तूबर 2023 को हमास ने इस्राएल पर ताबड़तोड़ हमले किए थे, इस्राएल ने जवाबी कार्रवाई की जो आज भी जारी है। तब मीडिया या सोशल मीडिया में जो विमर्श गढ़े गए, उससे तो सब परिचित ही होंगे। लेकिन इस्राएल विरोधियों ने क्या किया था, उसके बारे में बहुत कम लोग जानते हैं। दरअसल, इस्राएल विरोधी शक्तियों ने एआई तक का उपयोग कर एक जले हुए बच्चे की तस्वीर से छेड़छाड़ कर उसे सोशल मीडिया पर फैला दिया था।

महत्वपूर्ण बात यह है कि इस्राएल के प्रधानमंत्री बेंजामिन नेतन्याहू भी इस झांसे में आ गए और उस तस्वीर को सोशल मीडिया पर साझा कर दिया। बाद में जब इसकी जांच की गई तो पता चला कि तस्वीर असली थी और बच्चा इस्राएली हमले में नहीं झुलसा था, बल्कि हमास ने उसे माइक्रोवेव में जला दिया था। लेकिन फोटो को इस तरह प्रस्तुत किया गया था कि यह सब इस्राएल ने किया है।

सौभाग्य से डीपफेक का पता लगाने वाले उपकरण मौजूद हैं और इन्हें विकसित करना बहुत कठिन नहीं है। समस्या यह है कि कोई भी व्यक्ति सोशल मीडिया पर तैरते कंटेंट का फैक्ट चेक करने की कोशिश नहीं करता। आनलाइन माध्यमों, विशेष तौर पर सोशल मीडिया की लत के कारण लोग खुद पर ही ध्यान नहीं दे पाते। इसलिए उनके पास व्हाट्सएप, फेसबुक, इंस्टाग्राम आदि माध्यमों से जो कंटेंट आते हैं, वे उन्हें बिना सोचे-समझे आगे बढ़ा देते हैं।

दूसरा कारण यह है कि एक बार जब लोग किसी एक विचार के प्रति थोड़ा आकर्षित हो जाते हैं, तो एआई-संचालित वैयक्तिकरण एल्गोरिदम उन्हें अपनी मान्यताओं को मजबूत करने, उन्हें तीव्र करने के लिए ध्रुवीकृत सामग्री की पेशकश करते रहते हैं, भले ही वे गलत सूचना पर आधारित हों, लोगों को सूचनात्मक (या गलत सूचनात्मक) शिकंजे में जकड़ लेता है। यानी यह एक ऐसा ‘इको चैम्बर’ (प्रतिध्वनि-कक्ष) बनाता है, जहां व्यक्ति को वह सब मिलता है, जो वह सुनना चाहता है। इस तरह वह एक ऐसे चरण पर पहुंच जाता है, जहां वह और कुछ नहीं सुनता, जैसा कि कैस सन स्टीन की पुस्तक ‘रिपब्लिक.कॉम 2.0’ में बताया गया है।

लोकतंत्र खतरे में है!

हाल ही में टेक कंपनी माइक्रोसॉफ्ट ने चेतावनी दी है कि चीनी हैकर्स एआई टूल्स का इस्तेमाल कर लोकसभा चुनाव में मतदाताओं को प्रभावित कर सकते हैं। माइक्रोसॉफ्ट ने कहा है कि चीन एआई जनित कंटेंट का उपयोग करके भारत के अलावा अमेरिका और दक्षिण कोरिया में होने वाले चुनावों में हेर-फेर करने की कोशिश कर सकता है। इससे पहले चीन ताइवान में इस वर्ष जनवरी में हुए राष्ट्रपति चुनाव को प्रभावित करने के लिए एआई जनित कंटेंट का परीक्षण कर चुका है।

माइक्रोसॉफ्ट की चेतावनी को लोकतंत्र पर मंडरा रहे खतरे के तौर पर देखा जाना चाहिए। ‘स्टॉर्म 1376’ नामक बीजिंग समर्थित समूह ने ताइवान में चुनाव के दौरान कुछ उम्मीदवारों को बदनाम करने के लिए एआई जनित मीम्स और नकली आडियो कंटेंट प्रसारित किया था। माइक्रोसॉफ्ट ने अपनी थ्रेट इंटेलिजेंस टीम की एक रिपोर्ट में कहा कि 2024 में हाई-प्रोफाइल चुनावों को प्रभावित करने के लिए चीन समर्थित साइबर समूह उत्तर कोरिया के साथ मिल कर इसी तरह के हेर-फेर को अंजाम दे सकते हैं। इसके लिए वे सोशल मीडिया प्लेटफॉर्म के जरिए एआई जनित कंटेंट तैयार कर इंटरनेट पर फैलाएंगे।

कंपनी ने आगाह किया है कि एआई से तैयार कंटेंट के साथ चीन का प्रयोग आने वाले समय में प्रभावी साबित हो सकता है। इससे पहले भी सरकार को चेतावनी मिली थी कि चीनी हैकर्स एआई टूल्स के जरिए चुनाव को प्रभावित करना चाहते हैं। इसलिए प्रधानमंत्री नरेंद्र मोदी ने दिसंबर 2023 में डीपफेक के प्रति आगाह करते हुए नई तकनीक से सावधान रहने की चेतावनी दी थी। भारत, इंडोनेशिया और बांग्लादेश जैसे देश आनलाइन सामग्री पर अधिक बारीकी से निगरानी रखने और सोशल मीडिया पर गलत सूचना परोसने वाली सामग्री का विश्लेषण करने के लिए कानून पारित कर चुके हैं।

दरअसल, चीन की कम्युनिस्ट पार्टी ने अपने राजनीतिक तंत्र की पूरी तरह से हैकिंग करने के बाद अपने दायरे को वैश्विक स्तर तक विस्तारित किया है। चीन अपने यहां इस तकनीक का इस्तेमाल उइगरों का ब्रेनवाश करने में कर रहा है। चीन के अन्हुई प्रांत में हेफेई के एक एआई संस्थान का कहना है कि उसने एक ऐसा सॉफ्टवेयर विकसित किया है, जो कम्युनिस्ट पार्टी के सदस्यों की वफादारी का आकलन कर सकता है। इससे लोगों में आक्रोश बढ़ा है।

विशेषज्ञों का कहना है कि चीन ने अपनी एआई संचालित निगरानी क्षमता को बहुत प्रभावी बना लिया है। इसमें बड़े पैमाने पर डेटा, लर्निंग मशीन, चेहरे की पहचान और एआई का उपयोग कर उसने अपने लोगों के दिमाग को पढ़ने की क्षमता विकसित कर ली है, जिसे ‘डिजिटल तानाशाही’ का नाम दिया गया है। अपने यहां ब्रेनवॉश करने की क्षमता को विकसित करने के बाद अब चीन ने वैश्विक स्तर पर यही अभियान चलाया है।

शुरुआत में जब हैकर्स किसी लक्ष्य पर हमला करते थे, तो सबूत छोड़ जाते थे। इस कारण जांच अधिकारी उन तक पहुंच जाते थे। लेकिन हैकर्स ने लंबे समय तक अमेरिका के विरुद्ध बड़े पैमाने पर सूचना संपत्ति की चोरी के लिए अभियान चलाया और धीरे-धीरे अपनी क्षमताएं इतनी विकसित कर लीं कि अब वे एआई का इस्तेमाल कर सीमाओं के पार कहीं अधिक जटिल हमलों और मनोवैज्ञानिक युद्ध में निपुण हो गए हैं।

कांग्रेस ने कहा था कि वह अपने घोषणापत्र में चीन की कम्युनिस्ट पार्टी के साथ संबंधों को फिर से स्थापित करने के मुद्दे को शामिल करेगी। इसलिए यहां इन बिंदुओं को जोड़ना बहुत मुश्किल नहीं है। इस बारे में बहुत स्पष्ट संकेत हैं कि 2024 के लोकसभा चुनावों में सीसीपी किसका अवैध और अनैतिक रूप से समर्थन कर रही है और किसके नेतृत्व में हम उत्तर-पूर्वी क्षेत्रों में अपनी मातृभूमि के कुछ हिस्सों को पीएलए के हाथों खो देंगे। साथ ही, कई अन्य आर्थिक, भू-राजनीतिक और रक्षा नुकसान भी होंगे।

दरअसल, लगातार हार की हताशा एक व्यक्ति को सभी सीमाएं लांघने, अपने देश के दुश्मनों से सांठगांठ करने और अपने ही घर को जलाने के लिए मजबूर कर देती है। कृत्रिम बुद्धिमत्ता एल्गोरिदम के माध्यम से सूचना में हेराफेरी और इको चैम्बर्स का निर्माण सार्वजनिक क्षेत्र के प्रभावी ढंग से कार्य करने के लिए आवश्यक शर्तों को कमजोर कर देता है, जिससे संभावित रूप से लोकतांत्रिक प्रक्रियाओं के मूलभूत सिद्धांत खतरे में पड़ जाते हैं।

व्यवहार, बिक्री के लिए डेटा ट्रेडिंग व्यक्तिगत डेटा को एक वस्तु में बदल देती है और इसका उपयोग भविष्यवाणी करने और व्यवहार को प्रभावित करने के लिए करती है। एआई एल्गोरिदम बड़ी मात्रा में व्यक्तिगत डेटा माइनिंग और विश्लेषण के लिए एक उपकरण बन गया है। अक्सर स्पष्ट सहमति के बिना लाभ के लिए व्यवहार में सूक्ष्म रूप से हेरफेर किया जाता है। डिजिटल युग में ‘निगरानी पूंजीवाद’ एक व्यापक घटना है, जो व्यक्तिगत डेटा को एक मूल्यवान वस्तु में बदल देती है।

इसमें मानव व्यवहार की भविष्यवाणी करने, प्रभावित करने और नियंत्रित करने के लिए बड़ी मात्रा में व्यक्तिगत डेटा की व्यवस्थित निगरानी, संग्रह और विश्लेषण शामिल है। एल्गोरिदम के उपयोग के माध्यम से कृत्रिम बुद्धिमत्ता (एआई) इस प्रक्रिया में महत्वपूर्ण भूमिका निभाती है, जिससे व्यक्तिगत डेटा को ऐसे पैमाने पर निकालने और जांचने में मदद मिलती है, जो एआई के उपयोग के बिना असंभव होगा। यह अक्सर उन लोगों की स्पष्ट सहमति के बिना हो सकता है, जिनका डेटा संसाधित किया जा रहा है। परिणामस्वरूप व्यावहारिक हेरफेर का एक सूक्ष्म, लेकिन व्यापक रूप सामने आता है, जो लाभ के उद्देश्यों से प्रेरित होता है।

कैसे काम करते हैं डीपफेक?

डीपफेक को कई तरीकों से अंजाम दिया जा सकता है। OpenAI Sora जैसे टूल का उपयोग करके कोई भी पूरी तरह से काल्पनिक वीडियो बना सकता है। मनचाहा वीडियो बनाने के लिए केवल वैसी स्क्रिप्ट लिखनी होती है। इसके बाद यह टूल उसके निर्देशानुसार वीडियो बना देता है। OpenAI Sora से पहले भी ऐसे टूल थे, जिनके जरिए वीडियो में चेहरे और आवाजें बदली ला सकती थीं। लेकिन उनका इस्तेमाल अपराधों तक सीमित था। अब डीपफेक का इस्तेमाल अपराधों से परे स्वतंत्र एवं निष्पक्ष चुनाव जैसी लोकतांत्रिक प्रक्रियाओं पर सक्रिय हमले के लिए किया जाने लगा है।

डीपफेक से जुड़े सामान्य अपराधों में ‘रिवेंज पोर्नोग्राफी’ शामिल है। इसमें पीड़ित का चेहरा अश्लील वीडियो में लगा दिया जाता है और उसे बदनाम करने के लिए वीडियो को प्रसारित किया जाता है। पश्चिम में झूठी दलील और सबूत तैयार करने के लिए ऐसे अपराध सामान्य हैं। किसी अपराध को अंजाम देने वाले फर्जी वीडियो या चित्र या आडियो प्रस्तुत करके निर्दोष लोगों को निशाना बनाया जा सकता है। या किसी व्यक्ति या व्यक्तियों के समूह को किसी अवांछित गतिविधि में शामिल अन्य लोगों के वीडियो पर उनके चेहरे लगाकर उन्हें फंसाया या बदनाम किया जा सकता है।

खासतौर से राजनेताओं, नौकरशाहों और नामचीन हस्तियों को इससे सतर्क रहने की जरूरत है, क्योंकि उनकी आवाज और चेहरे का इस्तेमाल कर दो समुदायों के बीच नफरत फैलाने में किया जा सकता है। उनके भाषण तैयार कर साम्प्रदायिक हिंसा भड़का कर सामाजिक सौहार्द को बिगाड़ा जा सकता है। इसके अलावा, डीपफेक वीडियो या आडियो का उपयोग करके अपराधी अपनी पहचान छिपाकर लोगों से दुर्व्यवहार और उनका उत्पीड़न कर सकते हैं।

वैसे तो आतंकी अपना चेहरा दिखाने और हमलों की जिम्मेदारी लेने का दावा करने में गर्व महसूस करते हैं, लेकिन डीपफेक का उपयोग किसी मरे हुए आतंकी को जीवित दिखाने में भी किया जा सकता है। इससे उनके समर्थकों का मनोबल बढ़ता है और अधिकारियों को भी भ्रमित किया जा सकता है। साथ ही, इसका उपयोग उन समुदायों या लोगों के समूह के बीच प्रसार और नफरत फैलाने के लिए किया जा सकता है, जो आतंकी संगठनों में शामिल होने के इच्छुक हों।

इनका उपयोग फिशिंग जैसे सोशल इंजीनियनिंग हमलों के लिए भी किया जा सकता है। जैसे- पीड़ित का करीबी होने का दिखावा कर पासवर्ड मांगना, कुछ व्यवहार को प्रोत्साहित करने के लिए सेलिब्रिटी वीडियो का उपयोग कर संगठनों और बैंकों से संवेदनशील व्यक्तिगत डेटा मांगना, किसी संगठन या सरकारी निकायों के अधिकारियों के रूप में अनुमोदन या धन हस्तांतरण के लिए अनुरोध भेजना।

फिल्म अभिनेता आमिर खान डीपफेक के ताजा शिकार हैं। हाल ही में एक राजनीतिक पार्टी का कथित तौर पर प्रचार करने को लेकर उनका एक वीडियो वायरल हुआ। इसके आधार पर यह खबर आई कि वे एक राजनीतिक पार्टी का समर्थन कर रहे हैं। इस वीडियो को फर्जी बताते हुए उन्होंने पुलिस से इसकी शिकायत की। हालांकि जीएएन एक बहुत बढ़िया टूल है, जिसका उपयोग मार्केटिंग, वीडियो कॉन्फ्रेंसिंग पर बैंडविड्थ बचाने, शैक्षिक सामग्री बनाने जैसे कामों में लाया जा सकता है। लेकिन यह देश और समाज के लिए खतरा भी उत्पन्न करता है, क्योंकि अपराधी या राष्ट्र विरोधी तत्व इसका इस्तेमाल कर देश और समाज को नुकसान पहुंचा सकते हैं।

Topics: खगोलशास्त्री कार्ल सागनराष्ट्र विरोधी शक्तिमानव मस्तिष्कसमाजशास्त्री इरविंग गोफमैनthe assassination of SocratesHong Kong policeevidenceastronomer Carl Saganपाञ्चजन्य विशेषanti-national powerप्रमाणhuman brainसुकरात की हत्या की कल्पनाsociologist Erving Goffmanहांगकांग पुलिस
ShareTweetSendShareSend
Subscribe Panchjanya YouTube Channel

संबंधित समाचार

घुसपैठ और कन्वर्जन के विरोध में लोगों के साथ सड़क पर उतरे चंपई सोरेन

घर वापसी का जोर, चर्च कमजोर

1822 तक सिर्फ मद्रास प्रेसिडेंसी में ही 1 लाख पाठशालाएं थीं।

मैकाले ने नष्ट की हमारी ज्ञान परंपरा

मार्क कार्नी

जीते मार्क कार्नी, पिटे खालिस्तानी प्यादे

हल्दी घाटी के युद्ध में मात्र 20,000 सैनिकों के साथ महाराणा प्रताप ने अकबर के 85,000 सैनिकों को महज 4 घंटे में ही रण भूमि से खदेड़ दिया। उन्होंने अकबर को तीन युद्धों में पराजित किया

दिल्ली सल्तनत पाठ्यक्रम का हिस्सा क्यों?

स्व का भाव जगाता सावरकर साहित्य

पद्म सम्मान-2025 : सम्मान का बढ़ा मान

टिप्पणियाँ

यहां/नीचे/दिए गए स्थान पर पोस्ट की गई टिप्पणियां पाञ्चजन्य की ओर से नहीं हैं। टिप्पणी पोस्ट करने वाला व्यक्ति पूरी तरह से इसकी जिम्मेदारी के स्वामित्व में होगा। केंद्र सरकार के आईटी नियमों के मुताबिक, किसी व्यक्ति, धर्म, समुदाय या राष्ट्र के खिलाफ किया गया अश्लील या आपत्तिजनक बयान एक दंडनीय अपराध है। इस तरह की गतिविधियों में शामिल लोगों के खिलाफ कानूनी कार्रवाई की जाएगी।

ताज़ा समाचार

‘आतंकी समूहों पर ठोस कार्रवाई करे इस्लामाबाद’ : अमेरिका

भारत के लिए ऑपरेशन सिंदूर की गति बनाए रखना आवश्यक

पाकिस्तान के रक्षा मंत्री ख्वाजा आसिफ

भारत को लगातार उकसा रहा पाकिस्तान, आसिफ ख्वाजा ने फिर दी युद्ध की धमकी, भारत शांतिपूर्वक दे रहा जवाब

‘फर्जी है राजौरी में फिदायीन हमले की खबर’ : भारत ने बेनकाब किया पाकिस्तानी प्रोपगेंडा, जानिए क्या है पूरा सच..?

S jaishankar

उकसावे पर दिया जाएगा ‘कड़ा जबाव’ : विश्व नेताओं से विदेश मंत्री की बातचीत जारी, कहा- आतंकवाद पर समझौता नहीं

पाकिस्तान को भारत का मुंहतोड़ जवाब : हवा में ही मार गिराए लड़ाकू विमान, AWACS को भी किया ढेर

पाकिस्तान ने जम्मू-कश्मीर से लेकर राजस्थान तक दागी मिसाइलें, नागरिक क्षेत्रों पर भी किया हमला, भारत ने किया नाकाम

‘ऑपरेशन सिंदूर’ से तिलमिलाए पाकिस्तानी कलाकार : शब्दों से बहा रहे आतंकियों के लिए आंसू, हानिया-माहिरा-फवाद हुए बेनकाब

राफेल पर मजाक उड़ाना पड़ा भारी : सेना का मजाक उड़ाने पर कांग्रेस नेता अजय राय FIR

घुसपैठ और कन्वर्जन के विरोध में लोगों के साथ सड़क पर उतरे चंपई सोरेन

घर वापसी का जोर, चर्च कमजोर

  • Privacy
  • Terms
  • Cookie Policy
  • Refund and Cancellation
  • Delivery and Shipping

© Bharat Prakashan (Delhi) Limited.
Tech-enabled by Ananthapuri Technologies

  • Search Panchjanya
  • होम
  • विश्व
  • भारत
  • राज्य
  • सम्पादकीय
  • संघ
  • वेब स्टोरी
  • जीवनशैली
  • विश्लेषण
  • लव जिहाद
  • खेल
  • मनोरंजन
  • यात्रा
  • स्वास्थ्य
  • संस्कृति
  • पर्यावरण
  • बिजनेस
  • साक्षात्कार
  • शिक्षा
  • रक्षा
  • ऑटो
  • पुस्तकें
  • सोशल मीडिया
  • विज्ञान और तकनीक
  • मत अभिमत
  • श्रद्धांजलि
  • संविधान
  • आजादी का अमृत महोत्सव
  • लोकसभा चुनाव
  • वोकल फॉर लोकल
  • बोली में बुलेटिन
  • ओलंपिक गेम्स 2024
  • पॉडकास्ट
  • पत्रिका
  • हमारे लेखक
  • Read Ecopy
  • About Us
  • Contact Us
  • Careers @ BPDL
  • प्रसार विभाग – Circulation
  • Advertise
  • Privacy Policy

© Bharat Prakashan (Delhi) Limited.
Tech-enabled by Ananthapuri Technologies