डिजिटल युग में खतरनाक साबित हो रहा डीपफेक, जानिए कैसे करता है काम और क्या है इसका तोड़..?
May 10, 2025
  • Read Ecopy
  • Circulation
  • Advertise
  • Careers
  • About Us
  • Contact Us
android app
Panchjanya
  • ‌
  • विश्व
  • भारत
  • राज्य
  • सम्पादकीय
  • संघ
  • वेब स्टोरी
  • जीवनशैली
  • अधिक ⋮
    • विश्लेषण
    • लव जिहाद
    • खेल
    • मनोरंजन
    • यात्रा
    • स्वास्थ्य
    • संस्कृति
    • पर्यावरण
    • बिजनेस
    • साक्षात्कार
    • शिक्षा
    • रक्षा
    • ऑटो
    • पुस्तकें
    • सोशल मीडिया
    • विज्ञान और तकनीक
    • मत अभिमत
    • श्रद्धांजलि
    • संविधान
    • आजादी का अमृत महोत्सव
    • मानस के मोती
    • लोकसभा चुनाव
    • वोकल फॉर लोकल
    • जनजातीय नायक
    • बोली में बुलेटिन
    • पॉडकास्ट
    • पत्रिका
    • ओलंपिक गेम्स 2024
    • हमारे लेखक
SUBSCRIBE
  • ‌
  • विश्व
  • भारत
  • राज्य
  • सम्पादकीय
  • संघ
  • वेब स्टोरी
  • जीवनशैली
  • अधिक ⋮
    • विश्लेषण
    • लव जिहाद
    • खेल
    • मनोरंजन
    • यात्रा
    • स्वास्थ्य
    • संस्कृति
    • पर्यावरण
    • बिजनेस
    • साक्षात्कार
    • शिक्षा
    • रक्षा
    • ऑटो
    • पुस्तकें
    • सोशल मीडिया
    • विज्ञान और तकनीक
    • मत अभिमत
    • श्रद्धांजलि
    • संविधान
    • आजादी का अमृत महोत्सव
    • मानस के मोती
    • लोकसभा चुनाव
    • वोकल फॉर लोकल
    • जनजातीय नायक
    • बोली में बुलेटिन
    • पॉडकास्ट
    • पत्रिका
    • ओलंपिक गेम्स 2024
    • हमारे लेखक
Panchjanya
panchjanya android mobile app
  • होम
  • विश्व
  • भारत
  • राज्य
  • सम्पादकीय
  • संघ
  • वेब स्टोरी
  • जीवनशैली
  • विश्लेषण
  • मत अभिमत
  • रक्षा
  • संस्कृति
  • पत्रिका
होम भारत

डिजिटल युग में खतरनाक साबित हो रहा डीपफेक, जानिए कैसे करता है काम और क्या है इसका तोड़..?

सचिन तेंदुलकर और विराट जैसे कई बड़े लोग हो चुके है शिकार, प्रधानमंत्री और राष्ट्रपति भी जता चुके हैं चिंता

by योगेश कुमार गोयल
Aug 30, 2024, 07:16 pm IST
in भारत, विज्ञान और तकनीक
FacebookTwitterWhatsAppTelegramEmail

स्टार बल्लेबाज विराट कोहली का वायरल हुआ 33 सैकेंड का एक डीपफेक वीडियो इन दिनों काफी चर्चा में है, जिसमें वे सचिन तेंदुलकर और स्वयं को ‘लीजेंड’ बताते हुए भारतीय क्रिकेट टीम के ओपनर शुभमन गिल की बुराई करते नजर आ रहे हैं। यह डीपफेक वीडियो विराट के एक पुराने इंटरव्यू को एडिट करते हुए बनाया गया, जिसमें कोहली कहते दिख रहे हैं, ‘मैं गिल को करीब से देख रहा हूं, वे प्रतिभाशाली हैं, इसमें कोई संदेह नहीं है लेकिन प्रतिभा दिखाने और स्टार बनने के बीच एक बड़ा अंतर है। गिल की टैक्नीक शानदार है लेकिन हमें खुद से आगे नहीं बढ़ना चाहिए। लोग उसे अगले विराट कोहली के तौर पर देखते हैं लेकिन मैं क्लीयर कर दूं कि केवल एक ही विराट कोहली है। मैंने जितने खतरनाक गेंदबाजों का सामना किया है और जिन परिस्थितियों में रन बनाए हैं, उसे आप गिल की एक पारी से नहीं आंक सकते।’

तेंदुलकर भी हो चुके हैं डीपफेक के शिकार

यह पहला मौका नहीं है, जब विराट डीपफेक के शिकार हुए हों, इसी साल फरवरी महीने में भी उनका एक ऐसा डीपफेक वीडियो वायरल हुआ था, जिसमें वह एक सट्‌टेबाजी ऐप का विज्ञापन करते दिखाई दिए थे और तब विराट को सोशल पोस्ट के जरिये उसे लेकर सफाई भी देनी पड़ी थी। विराट कोहली से पहले कई और सेलिब्रिटी भी ऐसे ही डीपफेक के शिकार हो चुके हैं, जिनमें प्रमुख नाम सचिन तेंदुलकर का भी शामिल हैं। जनवरी 2024 में तेंदुलकर ने स्वयं प्रौद्योगिकी के व्यापक दुरुपयोग पर निराशा व्यक्त करते हुए ‘एक्स’ पर खुलासा किया था कि उनकी तस्वीर के साथ एक मोबाइल एप्लिकेशन को बढ़ावा देने वाला एक डीपफेक वीडियो सोशल मीडिया पर घूम रहा है, जो फर्जी है। उस फर्जी वीडियो में सचिन ‘स्काईवर्ड एविएटर क्वेस्ट’ गेमिंग ऐप को प्रमोट करते नजर आए थे। फेक वीडियो में वह कहते दिखे थे कि मेरी बेटी सारा इस गेम से रोजाना बहुत पैसा निकालती है और मुझे आश्चर्य होता है कि अब अच्छा-खासा पैसा कमाना कितना आसान हो गया है। वीडियो वायरल होने के बाद सचिन ने केंद्रीय सूचना एवं प्रसारण राज्यमंत्री और महाराष्ट्र साइबर पुलिस को टैग कर लोगों को सचेत करते हुए लिखा था कि वीडियो नकली है और आपको धोखा देने के लिए बनाया गया है।

प्रधानमंत्री और राष्ट्रपति जता चुके हैं चिंता

भारत में डीपफेक मुद्दे पर आक्रोश पहली बार तब उभरा था, जब डीपफेक तकनीक के जरिये तैयार किया गया एक ऐसा वीडियो वायरल हुआ था, जिसमें नजर आ रही एक महिला को ‘पुष्पा’ जैसी सफल फिल्म से प्रसिद्ध हुई अभिनेत्री रश्मिका मंदाना दिखाने का प्रयास किया गया था। तब अमिताभ बच्चन ने उस वीडियो का संदर्भ देते हुए सोशल मीडिया प्लेटफॉर्म पर लिखा था कि इस मामले में कानूनी कार्रवाई होनी चाहिए। रश्मिका के बाद बॉलीवुड अभिनेत्री कैटरीना कैफ, काजोल, रवीना टंडन इत्यादि के डीपफेक वीडियो भी सामने आए। बॉलीवुड अभिनेता शाहरूख खान और सलमान खान के डीपफेक वीडियो भी खूब वायरल हुए थे, जिनमें उन्हें बेहद मोटा दर्शाया गया था। डीपफेक मुद्दे को लेकर आक्रोश तब और ज्यादा बढ़ गया था, जब कुछ प्रसिद्ध फिल्म अभिनेताओं और अभिनेत्रियों के डीपफेक वीडियो सामने आने के बाद प्रधानमंत्री नरेंद्र मोदी का भी एक ऐसा वीडियो वायरल हुआ था, जिसमें उन्हें गरबा खेलते दिखाया गया था जबकि स्वयं प्रधानमंत्री के मुताबिक उन्होंने कभी गरबा खेला ही नहीं। प्रधानमंत्री का वह फर्जी वीडियो वायरल होने के बाद से ही ‘डीपफेक’ एक बड़ा राष्ट्रीय मुद्दा बना हुआ है और इस पर नकेल कसने की मांग निरंतर उठ रही है। प्रधानमंत्री और राष्ट्रपति भी ऐसे फेक वीडियो को लेकर कई बार चिंता जाहिर कर चुके हैं। डीपफेक के खतरों को लेकर प्रधानमंत्री चेताते हुए कह चुके हैं कि एआई द्वारा बनाए गए डीपफेक बड़े संकट का कारण बन सकते हैं, जो समाज में असंतोष भी पैदा कर सकते हैं। इसीलिए वह मीडिया से इसके दुरुपयोग के बारे में जागरूकता बढ़ाने और लोगों को शिक्षित करने का आग्रह भी करते रहे हैं। राष्ट्रपति द्रौपदी मुर्मू भी अपराधियों द्वारा जेनरेटिव आर्टिफिशियल इंटेलीजेंस के इस्तेमाल तथा डीपफेक को लेकर चिंता जाहिर करते हुए कह चुकी हैं कि पुलिस अधिकारियों को सदैव नई तकनीक से अपडेट रहना होगा ताकि अपराधियों पर बढ़त ली जा सके।

तकनीक ही हो सकती है ‘डीपफेक’ की काट

यह वाकई बेहद चिंताजनक स्थिति है कि कृत्रिम मेधा यानी आर्टिफिशियल इंटेलीजेंस (एआई) की मदद से तैयार किए जा रहे डीपफेक वीडियो अब न केवल जानी-मानी हस्तियों बल्कि आम आदमी के भी गले की फांस बनते जा रहे हैं। देश में डीपफेक तकनीक के संभावित दुरुपयोग और इसके गैर-नियमन के खिलाफ दो याचिकाओं पर सुनवाई करते हुए हाल ही में दिल्ली हाईकोर्ट ने भी कहा है कि डीपफेक तकनीक समाज में एक गंभीर खतरा बनने जा रही है और केवल तकनीक ही ‘एआई’ की काट हो सकती है। डीपफेक के बारे में कार्यवाहक चीफ जस्टिस मनमोहन का कहना था, ‘‘यह ऐसा कुछ है कि आप जो देख रहे हैं और जो सुन रहे हैं, आप उस पर भरोसा नहीं कर सकते। यह कुछ ऐसा है, जो चकित करता है। जो मैंने अपनी आंखों से देखा और जो मैंने अपने कानों से सुना, मुझे उस पर भरोसा नहीं करना है, यह बहुत ही चौंकाने वाला है।”

‘डीपफेक’ आखिर है क्या?

‘डीपफेक’ शब्द वास्तव में ‘डीप लर्निंग’ और ‘फेक’ के मेल से बना है। डीपफेक छवियों अथवा रिकॉर्डिंग को बदलकर और हेर-फेर करके बनाए जाते हैं ताकि किसी व्यक्ति को गलत तरीके से ऐसा कुछ करते या कहते हुए दिखाया जा सके, जो उसने किया ही नहीं या कहा ही नहीं। किसी भी वीडियो में किसी व्यक्ति के चेहरे अथवा शरीर को डिजिटल रूप से बदलने को ही ‘डीपफेक’ कहते हैं, जो वीडियो और ऑडियो दोनों ही रूप में हो सकता है। इसे एक स्पेशल मशीन लर्निंग का इस्तेमाल करके बनाया जाता है, जिसे ‘डीप लर्निंग’ कहा जाता है। डीप लर्निंग में कम्प्यूटर को दो वीडियो या फोटो दिए जाते हैं, जिन्हें देखकर वह स्वयं ही दोनों वीडियो या फोटो को एक जैसा बनाता है यानी एडिटेड वीडियो में किसी अन्य के चेहरे को किसी अन्य के चेहरे से बदल दिया जाता है। इस तरह के फोटो तथा वीडियो में कुछ छिपी हुई लेयर्स होती हैं, जिन्हें केवल एडिटिंग सॉफ्टवेयर की मदद से ही देखा जा सकता है। ये वीडियो इतने सटीक होते हैं कि आप इन्हें आसानी से नहीं पहचान सकते। यही कारण है कि डीपफेक फोटो और वीडियो फेक होते हुए भी असली नजर आते हैं। एआई की मदद से बने ऐसे वीडियो किसी को भी आसानी से धोखा देने में पूरी तरह सक्षम होते हैं। डीपफेक में कृत्रिम मेधा और आधुनिक तकनीकों का इस्तेमाल करते हुए किसी वीडियो क्लिप अथवा फोटो पर किसी अन्य व्यक्ति का चेहरा लगाने या आवाज बदलने का चलन तेजी से बढ़ रहा है। इसके जरिये कृत्रिम तरीके से ऐसे क्लिप या फोटो विकसित किए जा रहे हैं, जो देखने में वास्तविक लगते हैं। डीपफेक के लिए इन दिनों कई वेबसाइट और एप हैं, जहां लोग ऐसे वीडियो बना रहे हैं।

कैसे तैयार किए जाते हैं डीपफेक कंटेट?

डीपफेक कंटेंट एक-दूसरे के साथ प्रतिस्पर्धा करते दो एल्गोरिदम (डिकोडर और एनकोडर) का उपयोग करके तैयार किए जाते हैं। इस बेहद पेचीदा तकनीक में फेक डिजिटल कंटेंट बनाकर डिकोडर के जरिये यह पता लगाया जाता है कि कंटेंट असली है या नकली। डिकोडर हर बार कंटेंट को असली अथवा नकली के रूप में सही ढ़ंग से पहचानता है और फिर उस जानकारी को एनकोडर को भेज देता है ताकि अगले डीपफेक में गलतियां सुधारकर उसे और बेहतर किया जा सके। उसके बाद जो फाइनल आउटपुट निकलता है, वह बिल्कुल असली जैसा होता है लेकिन वास्तव में वह फेक होता है। यह तकनीक जनरेटिव एडवर्सरियल नेटवर्क (जीएएन) का इस्तेमाल करती है, जिससे फेक वीडियो और फोटो बनाए जाते हैं। सोशल मीडिया प्लेटफॉर्म पर डीपफेक वीडियो डाले जाने के बाद ये बहुत तेज गति से फैलते हैं। विभिन्न रिपोर्टों के मुताबिक इंटरनेट पर इस समय करोड़ों डीपफेक वीडियो मौजूद हैं। हालांकि इस तकनीक का इस्तेमाल मनोरंजन के लिए भी किया जाता है लेकिन पोर्नोग्राफी में इस तकनीक का काफी इस्तेमाल होता है। डीपफेक के जरिये ही किसी फिल्म अभिनेता अथवा अभिनेत्री का चेहरा बदलकर पोर्न साइटों पर अश्लील कंटेंट पोस्ट किया जाता है। माना जाता है कि इस तकनीक की शुरुआत ही अश्लील कंटेंट बनाने से हुई थी। ‘डीपट्रेस’ की एक रिपोर्ट के मुताबिक 2019 में ऑनलाइन पाए गए डीपफेक वीडियो में करीब 96 फीसद अश्लील कंटेंट ही था।

डीपफेक तकनीक का इतिहास

डीपफेक तकनीक का इतिहास देखें तो पहली बार 2014 में इयन गुडफ्लो और उनकी टीम ने इस तकनीक को विकसित किया था, जिसमें धीरे-धीरे नई-नई तकनीकों के साथ नए-नए परिवर्तन किए जाते रहे। वैसे 1997 में भी क्रिस्टोफ ब्रेगलर, मिशेल कोवेल और मैल्कम स्लेनी ने भी डीपफेक तकनीक की मदद से एक वीडियो में विजुअल से छेड़छाड़ की थी और एंकर द्वारा बोले जा रहे शब्दों को बदल दिया था लेकिन उसे एक प्रयोग के तौर पर किया गया था। हालांकि इस तकनीक का इस्तेमाल हॉलीवुड फिल्मों में बड़े पैमाने पर किया जाता रहा है। दरअसल शूटिंग के दौरान कई बार किसी कलाकार के पास डेट्स की कमी होने या शूटिंग के बीच में ही किसी कलाकार की मौत हो जाने पर इस तकनीक का इस्तेमाल किया जाता था लेकिन तब इस तकनीक का इस्तेमाल नकारात्मक तरीके से नहीं होता था लेकिन जैसे-जैसे यह तकनीक परिष्कृत होती गई, असली-नकली का फर्क करना भी मुश्किल होने लगा और कुछ लोग इसका गलत इस्तेमाल करने लगे। इसी परिष्कृत तकनीक के जरिये विभिन्न हॉलीवुड और बॉलीवुड अभिनेत्रियों के पोर्न वीडियो बनाए जाने लगे। अनेक पोर्न वेबसाइट ऐसे डीपफेक वीडियो से भरी पड़ी हैं। पहली बार डीपफेक शब्द 2017 के अंत में एक ‘रेडिट’ उपयोगकर्ता द्वारा बनाया गया था, जिसने अश्लील वीडियो पर विख्यात हस्तियों के चेहरे को सुपरइम्पोज करने के लिए डीप लर्निंग तकनीक का इस्तेमाल किया था। 2018 तक ओपन-सोर्स लाइब्रेरी तथा ऑनलाइन शेयर किए गए ट्यूटोरियल की बदौलत यह तकनीक इस्तेमाल में आसान हो गई और 2020 के दशक में तो डीपफेक और ज्यादा परिष्कृत हो गए, जिनका पता लगाना कठिन हो गया।

असंभव नहीं है डीपफेक कंटेंट की पहचान

डीपफेक मुद्दे पर चिंता बढ़ने का सबसे बड़ा कारण यही है कि क्योंकि इसमें दिखने वाला वीडियो बिल्कुल सही होता है किन्तु एआई के जरिये चेहरा, वातावरण अथवा असली ऑडियो बदल दिया जाता है और देखने वाले को इस बात का जरा भी अहसास नहीं होता कि वह असली नहीं बल्कि डीपफेक वीडियो देख रहा है। डीपफेक में वीडियो और ऑडियो को मशीन लर्निंग और एआई की मदद से बनाया जाता है, जिसमें ‘वॉयस क्लोनिंग’ बेहद खतरनाक हो गई है। डीपफेक कंटेंट की पहचान करने के लिए कुछ विशेष चीजों पर ध्यान देना जरूरी है और अधिकांश डीपफेक को कुछ अतिरिक्त सावधानियों के जरिये पहचाना जा सकता है। तकनीकी विशेषज्ञों के मुताबिक डीपफेक में चेहरे के भाव हमेशा बदलते रहते हैं, ऐसे में चेहरे, गालों और माथे पर ध्यान दें। आंखों, भौहों और पलक झपकने पर भी ध्यान दें और नोटिस करें कि क्या वीडियो में व्यक्ति बहुत कम या बहुत अधिक पलकें तो नहीं झपका रहा है। कुछ डीपफेक ‘लिप सिंकिंग’ पर आधारित होते हैं, इसलिए होठों की हरकत देखें कि वह नेचुरल है या नहीं। वीडियो अथवा फोटो में चेहरे के मस्सों अथवा तिल पर भी ध्यान दें। यह भी देखें के शरीर की परछाई सही जगह पर पड़ रही हैं या नहीं। चश्मे पर भी ध्यान से देखें कि उसमें जो परछाईयां दिखाई दे रही हैं, वे वीडियो के माहौल से मेल खा भी रही हैं या नहीं। ध्यान से देखें कि चेहरे के बाल असली दिख रहे हैं या नहीं। डीपफेक में त्वचा भी बहुत चिकनी या बहुत झुर्रीदार दिखाई दे सकती है। तकनीक के जानकारों के अनुसार, डीपफेक तकनीक से तैयार तस्वीरों और वीडियो को पहचानना आसान तो नहीं होता लेकिन यह असंभव भी नहीं है।

(लेखक 34 वर्षों से पत्रकारिता में निरंतर सक्रिय वरिष्ठ पत्रकार हैं)

Topics: Cricketers who are victims of Deepfakeकैसे तैयार होता डीपफेक कंटेट?History of Deepfake technologyडीपफेक कंटेट की पहचानEverything about Deepfakeडीपफेक कंटेट का समाधानडीपफेक के शिकार क्रिकेटरडीपफेक तकनीक का इतिहासडीपफेक के बारे में सब कुछWhat is DeepfakeHow is Deepfake content prepared?Identification of Deepfake contentSolution to Deepfake contentक्या है डीपफेक
ShareTweetSendShareSend
Subscribe Panchjanya YouTube Channel

संबंधित समाचार

No Content Available

टिप्पणियाँ

यहां/नीचे/दिए गए स्थान पर पोस्ट की गई टिप्पणियां पाञ्चजन्य की ओर से नहीं हैं। टिप्पणी पोस्ट करने वाला व्यक्ति पूरी तरह से इसकी जिम्मेदारी के स्वामित्व में होगा। केंद्र सरकार के आईटी नियमों के मुताबिक, किसी व्यक्ति, धर्म, समुदाय या राष्ट्र के खिलाफ किया गया अश्लील या आपत्तिजनक बयान एक दंडनीय अपराध है। इस तरह की गतिविधियों में शामिल लोगों के खिलाफ कानूनी कार्रवाई की जाएगी।

ताज़ा समाचार

Representational Image

IMF से पैसा लेकर आतंकवाद में लगा सकता है पाकिस्तान, भारत ने बैठक में जताई चिंता, रिकॉर्ड पर लिया बयान

PIB Fact Check : दिल्ली आगजनी और मिसाइल हमले का फर्जी वीडियो वायरल, PIB ने खोली पाकिस्तान की पोल!

चित्र वर्तमान समय के अनुसार नहीं है. प्रतीकात्मक हैं.

जम्मू कश्मीर में पाकिस्तान कर रहा भारी गोलीबारी : भारतीय सेना दे रही मुंहतोड़ जवाब, हमास के हथकंडे अपना रहा आतंकिस्तान

Tension on the border : जैसलमेर-बाड़मेर समेत 5 ज़िलों में हाई अलर्ट और ब्लैकआउट, शादी-धार्मिक कार्यक्रमों पर भी पाबंदी

क्या होगा अगर अश्लील सामग्री आपके बच्चों तक पहुंचे..? : ULLU APP के प्रबंधन को NCW ने लगाई फटकार, पूछे तीखे सवाल

पंजाब पर पाकिस्तानी हमला सेना ने किया विफल, RSS ने भी संभाला मोर्चा

Love jihad Uttarakhand Udhamsingh nagar

मूर्तियां फेंकी.. कहा- इस्लाम कबूलो : जिसे समझा हिन्दू वह निकला मुस्लिम, 15 साल बाद समीर मीर ने दिखाया मजहबी रंग

Operation Sindoor : एक चुटकी सिंदूर की कीमत…

नागरिकों को ढाल बना रहा आतंकिस्तान : कर्नल सोफिया कुरैशी ने पाकिस्तान को किया बेनकाब

पाकिस्तान जिंदाबाद के नारे लगाने वाला युवक हजरत अली गिरफ्तार 

  • Privacy
  • Terms
  • Cookie Policy
  • Refund and Cancellation
  • Delivery and Shipping

© Bharat Prakashan (Delhi) Limited.
Tech-enabled by Ananthapuri Technologies

  • Search Panchjanya
  • होम
  • विश्व
  • भारत
  • राज्य
  • सम्पादकीय
  • संघ
  • वेब स्टोरी
  • जीवनशैली
  • विश्लेषण
  • लव जिहाद
  • खेल
  • मनोरंजन
  • यात्रा
  • स्वास्थ्य
  • संस्कृति
  • पर्यावरण
  • बिजनेस
  • साक्षात्कार
  • शिक्षा
  • रक्षा
  • ऑटो
  • पुस्तकें
  • सोशल मीडिया
  • विज्ञान और तकनीक
  • मत अभिमत
  • श्रद्धांजलि
  • संविधान
  • आजादी का अमृत महोत्सव
  • लोकसभा चुनाव
  • वोकल फॉर लोकल
  • बोली में बुलेटिन
  • ओलंपिक गेम्स 2024
  • पॉडकास्ट
  • पत्रिका
  • हमारे लेखक
  • Read Ecopy
  • About Us
  • Contact Us
  • Careers @ BPDL
  • प्रसार विभाग – Circulation
  • Advertise
  • Privacy Policy

© Bharat Prakashan (Delhi) Limited.
Tech-enabled by Ananthapuri Technologies