लोकतंत्र पर मंडराता खतरा

Published by
अमित दुबे

आज के डिजिटल युग में वास्तविकता और कल्पना के बीच की रेखा तेजी से धुंधली होती जा रही है। इसी डिजिटल दुनिया के साथ आते हैं-डीपफेक। डीपफेक यानी अति-यथार्थवादी नकली वीडियो और चित्र बनाने के लिए आडियो और दृश्य सामग्री में हेरफेर करने की अनोखी और अक्सर परेशान करने वाली क्षमता। इस वक्त लोकसभा चुनाव चल रहे हैं, डीपफेक देश के राजनीतिक परिदृश्य को हर तरीके से प्रभावित करने की क्षमता रखता है। यह अत्यंत चिंताजनक है!

अमित दुबे
राष्ट्रीय साइबर सुरक्षा विशेषज्ञ

डीपफेक क्या है? कल्पना कीजिए, आपकी पसंदीदा बॉलीवुड अभिनेत्री या अभिनेता एक राजनीतिक पार्टी के उमीदवार का मुखर होकर समर्थन कर रहे हैं। उस अभिनेत्री या अभिनेता को भी इसकी जानकारी नहीं है कि वह ऐसा कुछ कर रहा है, जैसा कि हाल ही में अभिनेता आमिर खान के साथ हुआ। उनका एक डीपफेक वीडियो सामने आया, जिसमें वह कांग्रेस पार्टी का प्रचार करते दिखाई दिए। जब उन्हें पता चला तो उन्होंने एक्स पर ट्वीट कर सफाई दी।

यदि मतदान के दिन एक प्रत्याशी का ऐसा वीडियो वायरल हो जाए, जिसमें वह भद्दी-भद्दी गालियां दे रहा हो, तो क्या होगा? जब तक इस बारे में उस प्रत्याशी की प्रतिक्रिया आएगी, उसका फर्जी वीडियो अपना काम कर चुका होगा। यानी मतदाताओं का रुझान बदल जाएगा, और चुनाव का गणित गड़बड़ा जाएगा। इस प्रकार, डीपफेक लोकतंत्र पर सीधा प्रभाव डालता है और लोगों के निर्णय लेने की क्षमता को प्रभावित करता है। यह ऐसी चिंता है, जिसने चुनाव अधिकारियों और साइबर सुरक्षा विशेषज्ञों की नींद उड़ा रखी है।

डीपफेक में एक व्यक्ति की आवाज या चेहरे को दूसरे व्यक्ति के शरीर पर सहजता से जोड़ा जा सकता है। इसमें उन्नत कृत्रिम बुद्धिमत्ता और मशीन लर्निंग का उपयोग किया जाता है। इससे ऐसा डिजिटल हमशक्ल बनता है, जो देखने में वास्तविक लगता है। एक बार सोचिए कि रिश्वत लेते हुए रंगे हाथों पकड़े गए नेताओं के वीडियो, महिलाओं के साथ छेड़छाड़ के वीडियो या धार्मिक भावनाएं भड़काने वाले डीपफेक, आडियो क्लिप से सोशल मीडिया पर विमर्श खड़ा करने के साथ साम्प्रदायिक तनाव तक भड़काया जा सकता है।

डीपफेक एक दोधारी तलवार है। इसकी वजह से गलत सूचना और हेरफेर की संभावना तो है ही, ये प्रौद्योगिकियां पारदर्शिता और जवाबदेही बढ़ाने की शक्ति भी रखती हैं। एक ऐसी दुनिया की कल्पना करें, जहां व्यक्ति एक बटन के क्लिक से अभियान, वादों या राजनीतिक भाषणों की प्रामाणिकता को सत्यापित कर सकें, तथ्यों को कल्पना से अलग करने के लिए डीपफेक का पता लगाने वाले टूल का उपयोग कर सकें।

बेशक यह मार्ग चुनौतियों से भरा है। सरकार को डीपफेक की पहचान के लिए एक तंत्र विकसित करने, जनता को हेरफेर का पता लगाने के बारे में शिक्षित करने के लिए गूगल, मेटा और एक्स जैसे तकनीकी दिग्गजों के साथ मिलकर काम करने की आवश्यकता है। जनता को असली और नकली या चालाकी से बदली हुई मीडिया के बारे में सिखाना होगा और सुनिश्ति करना होगा कि चुनावी प्रक्रिया सुरक्षित और पारदर्शी बनी रहे।

पहले से ही कई नि:शुल्क व उपयोगकर्ता-अनुकूल डीपफेक पहचान उपकरण उपलब्ध हैं। ऐसा ही एक सॉफ्टवेयर है सेंटिनल। यह सेंटिटी द्वारा तैयार किया गया एक क्लाउड आधारित प्लेटफॉर्म है, जो किसी भी तरह के डीपफेक वीडियो या आडियो को आसानी से पहचान सकता है। डीपफेक का पता लगाने के लिए सेंटिनल कई एल्गोरिथम का उपयोग करता है, जैसे फेसिअल लैंडमार्क एनालिसिस, टेम्परल कंसिस्टेंसी चेक, फ्लिकर डिटेक्शन।

दूसरा है-https://weverify.eu/tools/deepfake-detector/। डीपफेक डिटेक्शन टूल को WeVerify प्रोजेक्ट के तहत विकसित किया गया है। इसका एल्गोरिदम वीडियो या चित्र में डीपफेक की संभावना का पता लगा सकता है। तीसरा है-scanner.deepware.ai। इस टूल का इस्तेमाल करके कोई भी फर्जी आडियो-वीडियो का पता लगा सकता है। ये टूल्स और इनके जैसे अन्य भारतीय मतदाताओं को सशक्त बनाने व डिजिटल धोखे निपटने में सक्षम बना सकते हैं। (साथ में हर्षित चतुर्वेदी, साइबर अपराध अन्वेषक)

फर्जी चाल-ढाल, खतरनाक मायाजाल

Share
Leave a Comment

Recent News