scorecardresearch

एआई के नुकसान से बचाव के लिए क्यों है सख्त कानूनों की दरकार?

एआई विकास का मौजूदा मॉडल कुछ कारोबारी खिलाड़ियों के हाथों में ताकत केंद्रित करने का है, जरूरत है ऐसे नए मॉडल की जिसके केंद्र में सार्वजनिक हित और लोक-कल्याण हो

इलस्ट्रेशन: नीलांजन दास/ एआई
इलस्ट्रेशन: नीलांजन दास/ एआई
अपडेटेड 19 जनवरी , 2024

डॉ. उर्वशी अनेजा
संस्थापक और कार्यकारी निदेशक, डिजिटल फ्यूचर्स लैब

एक साल पहले चैटजीपीटी लॉन्च होने के बाद से एआई लोगों के दिमाग पर छा गया है. सामाजिक प्रगति को आगे बढ़ाने में एआई की क्षमता के बारे में जरूरत से ज्यादा उत्साह और इंसानी वजूद पर खतरा मंडराने जैसी विनाशकारी आशंकाओं के बीच इसे लेकर तरह-तरह की कहानियां चल रही हैं.

दोनों ही तरह की बातों में भ्रामक अतिरंजना है. ये न सिर्फ एआई के मौजूदा नुकसान से ध्यान भटकाती हैं, बल्कि सार्वजनिक हित में एआई को विकसित करने के लिए जरूरी प्रोत्साहन तंत्र, क्षमताओं और साझेदारी के निर्माण में भी बाधा डालती हैं.

इस नैरेटिव को सही दिशा में खड़ा करना भारत जैसे देश के लिए खास तौर पर महत्वपूर्ण है. औद्योगिक अर्थव्यवस्थाओं में एआई के प्रमुख उपयोग के अनेक मामले उद्यम स्मस्याओं के समाधान पर केंद्रित हैं लेकिन भारत में एआई उस साधन की तरह है जो विकास की निरंतर चुनौतियों से निबट सके.

स्वास्थ्य सेवा और शिक्षा जैसे महत्वपूर्ण सामाजिक क्षेत्रों में सार्वजनिक सेवा उपलब्ध कराने में मौजूद खामियों को दूर करने के लिए एआई ऐप्लिकेशन्स को विकसित किया गया है, उसका उपयोग लोगों की बुनियादी सेवाओं और अवसरों तक पहुंच को प्रभावित करेगा.

साथ ही, भारत जैसे युवा लोकतंत्रों में नुकसान से बचाव और जोखिमों को कम करने की संस्थागत व्यवस्थाएं कमजोर और खंडित हैं, इसलिए संस्थागत विकास को आगे बढ़ाना संभव नहीं है. एआई के नियमन पर जोर भी इस धारणा के कारण धुंधला रहे हैं कि एआई भविष्य और आधुनिकता का बायस है और भारत जैसे विकासशील देश जो पिछली औद्योगिक क्रांतियों का लाभ लेने से चूक गए, वे अब इससे चूक जाने का जोखिम किसी भी तरह नहीं उठा सकते हैं.

प्रयोग या इनोवेशन?

इस सबका एक नतीजा यह है कि बहुत सारे प्रयोग चल रहे हैं. एआई टेक्नोलॉजी का इस्तेमाल महत्वपूर्ण सामाजिक क्षेत्रों में किया जा रहा है, लेकिन सार्वजनिक निगरानी न के बराबर है. भारत जैसे देश एआई के प्रयोगों की कब्रगाह हैं. दुनियाभर में जेनरेटिव एआई टूल्स की सटीकता और वैधता की तीखी आलोचनाएं बढ़ रही हैं लेकिन दक्षिणी गोलार्द्ध के कई दूसरे हिस्सों की तरह भारत में इन टूल्स में भारी निवेश किया जा रहा है ताकि इनका इस्तेमाल विकास उद्देश्यों को आगे बढ़ाने में किया जा सके. निश्चित रूप से इसके कई लाभकारी उपयोग हैं लेकिन हमें यह आश्वस्त करना चाहिए कि इन टूल्स का पर्याप्त परीक्षण और उनकी निगरानी हो.  

वरना जोखिम यह है कि हम जवाबदेही को नीचे की ओर खिसका देंगे. अग्रिम पंक्ति के स्वास्थ्य कार्यकर्ता या किसान जिनके लिए ये टूल्स पेश किए जा रहे हैं, उन पर अपने आप को नुकसान से बचाने का बोझ नहीं डालना चाहिए. ऑटोमेशन के प्रति पूर्वाग्रह की प्रवृत्ति दलील देती है कि उस पर इंसान की नजर होनी चाहिए. हाल के एक अध्ययन से पता चला है कि जीपीटी-आधारित टूल ने न केवल एक शोध पत्र के निष्कर्षों को तैयार किया बल्कि उस डेटासेट को भी बना डाला जिस पर निष्कर्ष आधारित थे. इसका पता लगाना सबसे अनुभवी व्यक्ति के लिए भी लगभग असंभव होगा, फ्रंटलाइन स्वास्थ्य कार्यकर्ता या किसान की तो बात ही छोड़ दें.

हो-हल्ले से परे

नैरेटिव सीधे खड़ा करना एआई के इर्द-गिर्द बुने गए हौवे को खत्म करने से शुरू होता है. एआई सिस्टम मानव बुद्धि से बराबरी करने में बहुत पीछे है. बल्कि एआई सिस्टम को कंप्यूटेशनल आंकड़ों के रूप में बेहतर समझा जाता है जो पैटर्न का पता लगाने और संभावित विश्लेषण या अनुमान के लिए बड़ी मात्रा में डेटा को स्कैन करता है. एक बच्चे और एआई प्रणाली के सीखने के तरीके में अंतर पर विचार करें. एआई प्रणाली को एक कार की हजारों तस्वीरें बताने की जरूरत होती है और फिर वह एक-एक कर कारों को पहचानने के लिए इन तस्वीरों से पैटर्न का पता लगाता है. लेकिन एक कार को पहचानने के लिए बच्चे को केवल दो से तीन कारें ही देखने की जरूरत होती है, भले ही उसका कोई टायर या दूसरा कोई खास फीचर गायब हो. एआई को सांख्यिकी के एक रूप की तरह समझने से इसकी क्षमता के बारे में हमारा नजरिया बदलना चाहिए. सांख्यिकी मॉडल कई चीजों के लिए उपयोगी हो सकते हैं लेकिन उन्हें 'सच्चाई' या लोगों की अपने अधिकारों का इस्तेमाल करने और महत्वपूर्ण सामाजिक सेवाओं तक पहुंचने की क्षमता का आधार नहीं माना जाना चाहिए.  

एआई में खुद की ताकत का कोई गुण नहीं है—वह सामाजिक रूप से लाभकारी नतीजे देता है या नहीं, यह इस बात पर निर्भर करेगा कि इसे कैसे और किसके द्वारा और किस उद्देश्य से बनाया गया है. इस समय एआई का ज्यादातर विकास क्षुद्र व्यावसायिक हितों से प्रेरित है, जिसमें सार्वजनिक हित की बहुत कम परवाह है. खुद एआई का विकास नहीं, बल्कि उसके इनोवेशन को प्रशस्त करने वाले प्रोत्साहनों और उसके संचालकों में बदलाव से ही तय होगा कि एआई सार्वजनिक हित में काम करता है या नहीं.  

दक्षिणी गोलार्द्ध पर दोहरा बंधन

यह भारत जैसे विकासशील देशों के लिए दोहरी मजबूरी है. एआई विकास को लोकतांत्रिक बनाने और इनोवेशन प्रक्रियाओं में प्रतिनिधित्व व्यापक करने की जरूरत है. यही कारण है कि भारत जैसे देश डेटा प्रशासन नीतियों के माध्यम से घरेलू खिलाड़ियों को मजबूत करने की कोशिश में हैं. डेटा नीतियां निजी कंपनियों को सार्वजनिक डेटा तक पहुंच की सुविधा देती हैं. हालांकि, एआई में हाल में आई तेजी हानिकारक और शोषणकारी बिजनेस मॉडल का नतीजा है, जो व्यापारिक नजरिये से निगरानी या व्यक्तिगत डेटा के गैर-कानूनी संग्रह और उससे पैसे कमाने पर आधारित है.

एआई विकास को इसलिए भी रफ्तार मिली क्योंकि विकासशील देशों में कम लागत में सस्ता श्रम उपलब्ध है. हालांकि एआई हाई-टेक लग सकता है, लेकिन इसके लिए टेक्स्ट, ऑडियो और विजुअल सामग्री के लाखों-करोड़ों टुकड़ों की मैन्युअल लेबलिंग करनी होती है. प्रौद्योगिकी कंपनियां इसे विकासशील देशों के श्रमिकों को आउटसोर्स करती हैं. इन श्रमिकों को बहुत कम मेहनताना दिया जाता है, उनके पास अधिकार नहीं होते और वे दयनीय हालात में काम करते हैं. एआई विकास के पर्यावरण संबंधी असर पर भी विचार किया जाना चाहिए. मसलन, हाल के अध्ययनों का अनुमान है कि चैटजीपीटी हरेक 5 से 50 जवाबों के लिए 500 मिलीलीटर पानी की खपत करता है.

प्रौद्योगिकी कंपनियों द्वारा एआई शब्द का उपयोग इस तरह किया जाता है, ताकि बिजनेस मॉडल को इनोवेशन और प्रगति को आगे बढ़ाने के रूप में वैधता मिले. ऐसा गोपनीयता, श्रम और अन्य मसलों के बावजूद होता है. हमें इस बिजनेस मॉडल से कम की जरूरत है, ज्यादा की नहीं.

आगे की राह 

कारोबारी एआई का मौजूदा मॉडल उपलब्ध डेटा पर निर्भर करता है और भारत में बड़ी डिजिटल खाई को देखते हुए ये डेटा आवश्यक रूप से अधूरे हैं और इनसे सामाजिक पूर्वाग्रह ही मजबूत होगा. यह व्यावसायिक लोगों के हाथों में शक्ति को केंद्रित करता है और इससे हाइब्रिड नॉलेज सिस्टम (मिश्रित ज्ञान प्रणालियों) के खत्म होने का खतरा है. इसके लिए सार्वजनिक हित पर केंद्रित अलग मॉडल की जरूरत है.

इसमें दो राय नहीं कि कई मायनों में भारत में हम एआई से पहले के दौर में हैं. हम अभी भी डिजिटलीकरण के प्रसार की प्रक्रिया में हैं. इससे हमको समावेशी, सहभागी और समस्या हल करने वाले डेटासेट बनाने और उनको व्यवस्थित करने का एक अनूठा अवसर मिलता है. इसके लिए उन नागरिक समाज और जमीनी स्तर के संगठनों में निवेश की आवश्यकता होगी जिनके पास सार्वजनिक सेवाएं प्रदान करने का अनुभव है और बहुत सारे मसलों पर ऐसी साझेदारियां बना रहे हैं जो डोमेन और तकनीकी विशेषज्ञों को जोड़ती हैं. यह संभव नहीं है कि अकेला बाजार इस तरह के डेटा क्यूरेशन को प्रोत्साहित करे. इसके लिए सरकार और परोपकार से जुड़े लोगों से खासे निवेश और मेहनत की आवश्यकता होगी. बड़े और सभी उद्देश्यों के लिए एआई मॉडल के प्रति मौजूदा आकर्षण सबसे अच्छा रास्ता नहीं भी हो सकता है. इसके बजाए हमें छोटे और अधिक विशिष्ट मॉडलों पर ध्यान देने की जरूरत है जो किसी मकसद के साथ और स्थानीय रूप से क्यूरेटेड डेटासेट पर बनाए गए हैं और जिनमें ऑडिट करना और जवाबदेही संभव है. 

हमें एआई के नुक्सानों से निबटने के लिए मजबूत नियमों की भी आवश्यकता है. यह झूठी बात है कि नियम-कायदों का अंकुश और इनोवेश एक-दूसरे के विरोधी हैं. इसके बजाए नियम-कायदे बेहतर इनोवेशन को बढ़ावा दे सकते हैं. इलेक्ट्रिक वाहनों के बाजार में आया उछाल इसका सटीक उदाहरण है. हमें जिन उपकरणों और टूल्स की आवश्यकता है उनमें से कई मौजूदा नियम-कानूनों के ढांचे में पहले से ही उपलब्ध हैं. 

हमें कुछ प्रौद्योगिकी कंपनियों के हाथों में ताकत केंद्रित होने से निबटने के लिए प्रतिस्पर्धा कानून का उपयोग करना होगा और सहमति, कम से कम डेटा और उद्देश्य की सीमा के आसपास गोपनीयता कानून के सिद्धांतों को बरकरार रखना होगा. सोशल मीडिया प्लेटफॉर्म का पिछले दशक या हाल में सैम ऑल्टमैन के ओपनएआई से बाहर निकलने और फिर वापसी के नाटकीय घटनाक्रम से यह पूरी तरह स्पष्ट हो जाना चाहिए कि स्व-नियमन पर्याप्त नहीं है और हर कंपनी का कदम अपना व्यावसायिक हित देखकर ही उठेगा. 

कुल जमा यह कि हमें इन प्रणालियों का लगातार ऑडिट करने के लिए नागरिक संगठनों और सार्वजनिक संस्थानों को विकसित करने की जरूरत है. इससे सार्वजनिक विश्वास बनाने और अंतत: उसे अपनाने में मदद मिलेगी. वर्तमान नीतिगत बहसों से ऐसा लगता है कि सिस्टम को 'खुला' बनाना ही जवाबदेही तय करने के लिए पर्याप्त है. हालांकि, यह सर्वविदित है कि खुलेपन से जवाबदेही अपने आप नहीं आती या नुक्सान में कमी नहीं होती. इस दौरान भी और भी अहम कदम होते हैं. सबसे महत्वपूर्ण है इन प्रणालियों का ऑडिट करना और कंपनियों को जवाबदेह बनाने के नियम और व्यवस्थाएं तैयार करना. पर्याप्त क्षमता के बिना पारदर्शिता आसानी से जवाबदेही की दुश्मन बन सकती है.

Advertisement
Advertisement