- अरुण पुरी
सच आंखों देखी से बड़ा नहीं होता. यह पुरानी जांची-परखी कहावत अब सच नहीं रह गई है. कुछ ही दिन पहले, बॉलीवुड अभिनेत्री काजोल का पोशाक बदलते हुए एक वीडियो सोशल मीडिया पर खूब वायरल हुआ, जब तक उसे 'डीपफेक' करार नहीं दिया गया. उनका चेहरा किसी दूसरे के वीडियो पर इतने विश्वसनीय ढंग से लगा दिया गया था कि ज्यादातर लोग उसके झांसे में आ ही जाते. उससे ठीक पहले एक और डीपफेक आया था, जिसमें चर्चित अभिनेत्रियों में एक, रश्मिका मंदाना, उसी दौर से गुजरी थीं. और जब तक यह पता चलता कि शरीर तो दरअसल ब्रिटिश-भारतीय सोशल इंफ्लुएंसर जारा पटेल का था, उससे पहले वीडियो तेजी से वायरल हो गया. खतरा यह है कि ऐसी वारदातें कहीं हमारे दौर की पहचान न बन जाएं. सौभाग्य से, कोई स्थायी दाग नहीं लगा है, लेकिन इन वारदातों ने हमारे बीच एक अंधेरे कोने की ओर इशारा किया, जो खतरनाक रफ्तार से बढ़ रहा है. यहां तक कि प्रधानमंत्री नरेंद्र मोदी ने भी इस पर चिंता का इजहार किया और कहा कि उन्होंने अपना खुद का एक डीपफेक देखा कि वे गरबा नृत्य कर रहे हैं, जो उन्होंने अपने स्कूल के दिनों से नहीं किया.
अत्याधुनिक डिजिटल टूल के साथ आप जो कुछ कर सकते हैं वह हैरान करने वाला और उसी पैमाने पर डराने वाला भी हैं. हमारे दौर के स्थापित देवों की तरह इंटरनेट सर्वव्यापी और अंतरंग है, लेकिन जरूरी नहीं कि यह परोपकारी हो. हम पहले ही सार्वजनिक तौर पर घृणित, अक्खड़ रवैए के अनजाने दायरे देख चुके हैं, और फेक न्यूज पहले से ही इतना फलता-फूलता धंधा है कि फैक्ट चेक एक जरूरी पेशा बन गया है. अब, आर्टिफिशियल इंटेलिजेंस (एआई) की आमद के साथ नए-नए ऐप की बाढ़ ने आम लोगों पर डिजिटल जादू-टोना करने के साधन जुटा दिए हैं. स्मार्टफोन रखने वाले हर हाथ में 'डीपफेक' टिक्-टिक् करता हुआ जिंदा बम है. लेकिन यह वास्तव में है क्या? यह ऑडियो और विजुअल दोनों रूपों से उपलब्ध डेटा में डिजिटल माध्यम से ऐसी सफाई से फेरबदल कर रहा है कि आप असली और नकली के बीच फर्क नहीं बता सकते. तस्वीरों को मॉर्फ करना तो कुछ समय से जारी है, लेकिन डीप लर्निंग आधारित एआई के साथ फर्जी खबरों के घालमेल की चाहत अकल्पनीय स्तर पर पहुंच गई है. एआई असली दुनिया की घटनाओं की लगभग हू-ब-हू नकल तैयार कर सकता है. उससे आपको जो दृश्य सामग्री मिलती है, वह सामूहिक धोखे का औजार है.
गलत मंशा से इसका इस्तेमाल डरावने स्तर तक जा सकता है और असर भारी विनाशकारी हो सकता है. डीपफेक न सिर्फ किसी की व्यक्तिगत प्रतिष्ठा को नुक्सान पहुंचा सकता है, बल्कि समाज के पूरे ढांचे को तार-तार कर सकता है. पहले ही इसका इस्तेमाल सेलिब्रिटी अश्लील सामग्री, फर्जी खबरों, और धमकाने-डराने तथा वित्तीय धोखाधड़ी के लिए किया जा रहा है. सार्वजनिक हस्तियां सबसे अधिक असुरक्षित हैं. भारत जैसे देश में, जहां साक्षरता का स्तर शोचनीय है, इसका एक सबसे बड़ा खतरा यह है कि इसके जरिए चुनाव के नतीजे प्रभावित किए जा सकते हैं. झूठे नैरेटिव गढ़ना और सार्वजनिक चर्चा का रुख मोड़ देना बहुत आसान है क्योंकि मतदाताओं को आसानी से झांसे में लिया जा सकता है. हाल ही में कौन बनेगा करोड़पति का एक मॉर्फ्ड क्लिप वायरल हुआ, जिसका उद्देश्य राज्य में मतदान से कुछ दिन पहले मध्य प्रदेश के मुख्यमंत्री शिवराज सिंह चौहान की छवि खराब करना था. इससे भी प्रत्यक्ष यह युद्धों को प्रभावित कर सकता है, जैसा कि हमें गजा में दिखा. इज्राएल-हमास संघर्ष में दोनों पक्ष दुनिया की राय को अपनी ओर मोड़ने के लिए डीपफेक के औजार का इस्तेमाल करने के दोषी रहे हैं. यह बेहद दुखद सबूत है कि हजारों जिंदगियां खतरे में पड़ सकती हैं. जरा सोचए, तमाम तरह के छोटे-मोटे संघर्षों के बीच कि किस कदर भारत जैसे देश में सामाजिक अराजकता फैलाई जा सकती है.
इस पर लगाम लगाना बेहद जरूरी है. पहली राह टेक्नोलॉजी है. हमें फेक सामग्री का पता लगाने के लिए कॉन्टेंट वेरिफिकेशन के उन्नत टूल्स की जरूरत है. सौभाग्य से, डीपफेक बनाने वाली टेक्नोलॉजी अधिकांश मामले में उसे पहचान भी सकती है. डीप जेनरेटिव टूल से छवियां तैयार करने से पहले, असली दुनिया की छवियों की उनके मूल 'संरचना' के ब्यौरों को समझने के लिए समीक्षा की जाती है. समस्या यह है कि डीपफेक के अपराधियों की ऐसे टूल तक पहुंच होती है, जिससे पता लगाना कहीं अधिक चुनौतीपूर्ण हो जाता है. और दुर्भाग्य से, टेक्नोलॉजी इतनी लोकतांत्रिक हो गई है कि डिटेक्टरों के मुकाबले डीपफेक बनाने वाले कहीं ज्यादा हैं. एक अन्य संभावना डिजिटल वॉटरमार्किंग पर विचार किया जा रहा है. वॉटरमार्क न होना किसी सामग्री के नकली होने की चेतावनी देगा.
दूसरा अहम हस्तक्षेप कानून का हो सकता है. सिर्फ सजा का डर ही काफी नहीं हो सकता. सरकार को एक नियामक ढांचा तैयार करना चाहिए जो उल्लंघन और दुरुपयोग के लिए वॉटरमार्किंग और गंभीर दंड जैसे नियम निर्धारित करे. ग्रुप एडिटोरियल डायरेक्टर राज चेंगप्पा के साथ बातचीत में केंद्रीय इलेक्ट्रॉनिक्स, सूचना-प्रौद्योगिकी राज्यमंत्री राजीव चंद्रशेखर ने बताया कि मोदी सरकार में इस मुद्दे पर कैसे सोच विकसित हो रही है. पहले ही, 2000 के आइटी कानून में पिछले तीन वर्ष में तीन प्रमुख संशोधन किए जा चुके हैं जो फेसबुक, यूट्यूब जैसे प्लेटफॉर्मों के 'सुरक्षा कवच' को सशर्त बनाते हैं. आपत्तिजनक सामग्री चिह्नित होने के बाद उन्हें एक तय समय-सीमा के भीतर उसे हटाना होगा या मुकदमे के लिए तैयार रहना होगा. लेकिन मंत्री का कहना है कि अब एक बिल्कुल नए कानून का वक्त आ गया है. 2000 के पुराने कानून की जगह डिजिटल इंडिया कानून आएगा, जिसकी फिलहाल कई स्तरों पर समीक्षा चल रही है.
इस हफ्ते की आवरण कथा में एसोसिएट एडिटर अजय सुकुमारन तेजी से विकसित हो रही टेक्नोलॉजी का चित्रण करते हैं जो फेक को दिन-ब-दिन अधिक प्रामाणिक बनाती है और उसके इस्तेमाल का दायरा बढ़ाती है. फेक बनाना कोई नई बात नहीं है क्योंकि '90 के दशक में हमारे पास फोटोशॉप था, जिसमें चेहरे की अदला-बदली जैसी चीजें आसानी से की जा सकती थीं. डीप लर्निंग तकनीकों ने सब कुछ नाटकीय तौर से बदल दिया है. हम शायद जल्द ही डीपफेक की सूनामी से रू-ब-रू हों. यह डिजिटल इंडिया का दूसरा पहलू है. मोबाइल फोन इस कदर सर्वव्यापी हो गए हैं कि फेक महामारी की तरह वायरल हो जाता है और भारी नुक्सान पहुंचा जाते हैं. इसीलिए हम इसे 'साफ-साफ मौजूद खतरा' कह रहे हैं. हम आज पोस्ट-ट्रूथ की दुनिया में रहते हैं. दरअसल, सोशल मीडिया पर कई तरह के झूठे नैरेटिव को बढ़ावा दिया जाता है इसलिए सच्चाई तेजी से लुप्तप्राय होती जा रही है. डीपफेक का प्रसार सच तक पहुंचना बहुत कठिन बना देता है. अगर आप नहीं जानते कि यह फेक है, तो क्या आप कभी सच्चाई जान पाएंगे?
- अरुण पुरी, प्रधान संपादक और चेयरमैन (इंडिया टुडे समूह)

