छुट्टा टेक्नोलॉजी कैसे लगे लगाम

अलग-अलग देशों के अपने नजरिए से एआइ की होड़ और बाजार की ताकतों ने टेक्नोलॉजी को नियम-कायदों के दायरे में लाने की ख्वाहिश कमजोर की. भारत का भी टेक्नो-लीगल अप्रोच उम्मीदों पर खरा नहीं

सांकेतिक तस्वीर

- उर्वशी अनेजा

साल 2025 का अंत आते-आते यह यकीन बनाए रखना मुश्किल हो गया कि आर्टिफिशियल इंटेलिजेंस (एआइ) को जल्द ही सार्थक नियम-कायदों के दायरे में लाया जा सकेगा. ऐसा इसलिए नहीं कि एआइ ज्यादा सुरक्षित या खतरे से परे हो गई, बल्कि इसलिए कि भू-राजनैतिक माहौल, आर्थिक होड़ और कॉर्पोरेट कंपनियों के असर लगातार राजनैतिक इच्छाशक्ति पर हावी होते गए.

अमेरिका में ट्रंप सरकार ने अपना रुख बिल्कुल साफ कर दिया. संघीय नियामक पीछे हट गए, सरकारी प्रयासों ने भी हाथ खींच लिए और एक ही उद्देश्य प्रमुख हो गया कि एआइ की वैश्विक होड़ में खासकर चीन के खिलाफ अमेरिकी कंपनियों की बढ़त को बनाए रखना है. बड़ी टेक कंपनियों ने अपने को राष्ट्रीय चैंपियन की तरह सामने रखा. उन्होंने एआइ के अस्तित्वगत जोखिम के डर को कई गुना बढ़ा दिया, जबकि खुद को उन जोखिमों को संभाल पाने के एकमात्र सूत्रधार के रूप में पेश किया.

एआइ के नियम-कायदों को लेकर यूरोपीय संघ (ईयू) का उत्साह भी मंद पड़ गया. पेरिस एआइ समिट से ही जोर एआइ की वैश्विक होड़ में ईयू की क्षमता विकसित करने पर आ गया. पूंजी की उड़ान और नवाचार में पिछड़ने की फिक्र के चलते डिजिटल बाजार को लेकर नियम बनाने की पहले वाली प्रतिबद्धताएं ढीली पड़ गईं. एआइ के नियम-कायदों को लेकर अलहदा यूरोपीय नजरिए का वादा लगातार कमजोर पड़ता गया है.

डिजिटल अधिकारों के पैरोकारों ने बड़ी मुश्किल से जो उपलब्धियां कमाई थीं, वे भी बीते साल के दौरान फीकी पड़ गईं. निजता को ही लीजिए, जो एआइ को 'लोकतांत्रिक बनाने' की आपाधापी के बीच एआइ की नीतियां तय करने वाले प्रमुख वैश्विक मंचों पर नेपथ्य में चली गई. एआइ के विकास को धीमा करने या एआइ प्रणालियों के इस्तेमाल में ज्यादा विवेकशील होने की सिविल सोसाइटी की अपीलों को लगातार नासमझ कहकर खारिज कर दिया जाता रहा है. दबदबा रखने वाली प्रमुख टेक्नोलॉजी कंपनियों का निहित व्यावसायिक हित सामने आ गया.

डीपफेक को नियम-कायदों के दायरे में लाना कुछ हद तक अपवाद के तौर पर अलग दिखाई देता है. ग्रोक चैटबॉट से जुड़ी एक ताजा घटना है, जिसमें महिलाओं और बच्चों की सहमति लिए बिना अश्लील ढंग से बनाई गई तस्वीरें तैयार और प्रसारित की गईं. उसके बाद सरकार ने ताबड़तोड़ दंडात्मक कदम उठाए. ग्रोक की घटना से नियम-कायदों के न होने के सटीक खतरे सामने आते हैं, लेकिन ग्रोक को वह कंटेंट हटाने के लिए मजबूर करने का कदम बहुत देर से उठाया गया. पीड़ित पहले ही नुक्सान उठा चुके थे, जिसकी भरपाई नहीं की जा सकती. इसके बजाए जरूरत ऐसे नियामकीय ढांचों की है जो यह बताए कि सरकार क्या कदम उठाए.

भारत का रवैया
भारत की राह इस वैश्विक पैटर्न में बिल्कुल फिट बैठती है. केंद्रीय इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय की तरफ से हाल में जारी दिशानिर्देशों ने यह साफ कर दिया कि सरकार का निकट भविष्य में ऊपर से नीचे तक एआइ के नियम-कायदे एकसमान लागू करने का कोई इरादा नहीं है. इसके बजाए कंपनियों की स्वैच्छिक समितियां ही काफी होंगी. सरकार की कोशिश ऐसी किसी भी चीज से बचने की है जो 'नवाचार का गला घोंट' सकती है.

अलबत्ता यहां भी डीपफेक को अपवाद के तौर पर बरता जाता है. भारत के आइटी मंत्रालय ने ग्रोक पर 'बड़े पैमाने पर (महिलाओं की तस्वीरों से) कपड़े हटाने' के मामले में 2 जनवरी को एक्स को 72 घंटे का अल्टीमेटम दिया कि 'ऐक्शन टेकन रिपोर्ट' पेश करें या सेफ-हार्बर प्रोटेक्शन यानी तीसरे पक्ष की तरफ से डाली गई गैरकानूनी सामग्री की जिम्मेदारी से बचाने वाला रक्षाकवच गंवाने का जोखिम उठाएं. कड़ी कार्रवाई तो खैर जरूरी ही थी, लेकिन वह नहीं किया गया. यह इस बात की ओर भी इशारा करता है कि बाजार को स्वनियमन के भरोसे छोड़ देने से वे नुक्सान होते रहेंगे जिनका अनुमान लगाया जा सकता है.

इसके अलावा भारत का नजरिया दो अहम तरीकों से अलग है. पहला, सरकार ने बाजार को गढ़ने की भूमिका अख्तियार कर ली है, जिसमें उसने एआइ के सामाजिक रूप से लाभदायक उपयोग को बढ़ावा देने के लिए कंप्यूटिंग संसाधनों और पहुंच से लेकर सार्वजनिक डेटा तक मुहैया किया. लेकिन इसे बाजार के भरोसे नहीं छोड़ा जा सकता जिसका जोर मुनाफा कमाने से तय होता है.

दूसरे, एआइ से होने वाले नुक्सान को लेकर भारत का जोर टेक्नो-लीगल समाधानों पर निर्भर है, जिसमें सुरक्षा के उपायों को सीधे प्रणालियों में स्थापित किया जाता है. तकनीकी नियंत्रण जरूर भूमिका निभाते हैं लेकिन वे एआइ से होने वाले बड़े सामाजिक, आर्थिक और राजनैतिक नुक्सानों पर अंकुश लगाने के लिए नाकाफी हैं.

ढांचागत नुक्सानों पर ध्यान
2025 तक यह भी साफ हो गया कि एआइ महज नए जोखिम ही पैदा नहीं कर रहा, बल्कि ऐसे ढांचागत नुक्सानों को पुख्ता कर रहा है जिन्हें पलटना मुश्किल हो सकता है. ग्रोक की घटना में महिलाओं पर पड़ने वाले खौफनाक असर की मिसाल सामने है.

विभिन्न देशों के बीच और उनके भीतर गैरबराबरी बढ़ रही है. दक्षिणी गोलार्द्ध के देशों में जाने-पहचाने पैटर्न उभर रहे हैं. देशों के भीतर उत्पादकता के फायदे ज्यादा से ज्यादा श्रम के बजाए पूंजी को मिल रहे हैं, और सत्ता के ढांचों की मौजूदा असमानताओं को और मजबूत कर रहे हैं.

बच्चे अनजाने में ही एक विशाल सामाजिक प्रयोग का हिस्सा बन रहे हैं. एआइ के साधन कक्षाओं में दाखिल हो रहे हैं, यहां तक कि तब भी विकास पर उनके हानिकारक प्रभावों के बारे में प्रमाण बढ़ते जा रहे हैं. युद्ध में एआइ की भूमिका सबसे गंभीर चेतावनी दे रही है. प्रणालियों को निशाना बनाने से लेकर रणक्षेत्र के व्यवस्थित विश्लेषण तक एआइ सशस्त्र संघर्ष के नियमों को नए सिरे से गढ़ रहा है. गजा सरीखी जगहों पर साफ दिखा कि टेक्नोलॉजी की क्षमता किस तरह जवाबदेही को आनन-फानन पीछे छोड़ सकती है, और लोगों के लिए कितने विनाशकारी नतीजे ला सकती है.

नियम-कायदों का रास्ता
अब 2026 की तरफ देखते हैं कि हम कहां खड़े हैं? अगर व्यापक नियम-कायदे लागू न हुए तो आगे का रास्ता कैसा दिखता है? हमें स्वीकार करना होगा कि एआइ किसी एक ढांचे की इकहरी चीज नहीं है. इसकी चुनौतियां डेटा अधिकार, श्रम सुरक्षा, कॉर्पोरेट जवाबदेही, पर्यावरण मानक और सार्वजनिक देखरेख तक फैली हैं. ये राजनैतिक सवाल हैं.

सरकार की क्षमता का निर्माण बेहद जरूरी है. तकनीकी और संस्थागत विशेषज्ञता के बिना नियम-कायदे की कोई जगह नहीं होगी. सरकारें एआइ प्रणालियां खरीदती हैं, बाजार गढ़ती हैं और पारदर्शिता तथा सामाजिक मूल्य की उम्मीदों को स्थापित कर सकती हैं.

कॉर्पोरेट नियम भी मायने रखते हैं. पेशेवर मानदंड बहुत अहम होंगे. उड्डयन की तरह एआइ सुरक्षा भी खुलासों, परीक्षणों और स्वतंत्र निगरानी के जरिए बनाई जानी चाहिए. मूल्यांकनों में सिविल सोसाइटी और स्थानीय समुदायों को शामिल किया जाना चाहिए ताकि उन नुक्सानों को पकड़ा जा सके जो फिलहाल दिखाई नहीं देते.

अंत में, 2025 का सबक यह नहीं कि एआइ को नियम-कायदों के दायरे में लाना इसलिए नाकाम हो गया क्योंकि यह बहुत कठिन था, बल्कि इसलिए कि होड़ और टेक्नोलॉजी को तरजीह दी गई.

(उर्वशी अनेजा डिजिटल फ्यूचर्स लैब की संस्थापक निदेशक हैं.)

Read more!