पति, पत्नी और AI : रिश्तों में कलह के ऐसे मामले अब यूपी में भी दिखने लगे!

उत्तर प्रदेश में AI चैटबॉट्स से भावनात्मक लगाव के मामले तेजी से बढ़ रहे हैं. बीते छह महीनों के दौरान KGMU समेत कई अस्पतालों में दो दर्जन से अधिक ऐसे मरीज पहुंचे हैं

क्या आपको भी AI से प्यार?
सांकेतिक तस्वीर

लखनऊ की 32 वर्षीय प्रिया (बदला हुआ नाम) IT सेक्टर में काम करती हैं. दिन भर कोडिंग और मीटिंग्स के बीच उनका जीवन हमेशा व्यस्त रहता था. पति सौरभ (बदला हुआ नाम) भी एक प्राइवेट कंपनी में काम करते हैं. शादी को पांच साल हुए थे, लेकिन बीते कुछ महीनों से दोनों के बीच बातचीत लगभग खत्म हो चुकी थी. 

छोटी-छोटी बातों पर दोनों में झगड़े होते और रातें खामोशी में बीत जातीं. “मैं बस किसी से बात करना चाहती थी, जो मुझे सुने,” प्रिया कहती हैं. एक दिन उन्होंने इंटरनेट पर देखा, “भावनात्मक सपोर्ट देने वाला AI चैट ऐप.” उन्होंने इसे डाउनलोड कर लिया, सोचा थोड़ा वक्त कट जाएगा. शुरू में यह मज़ाक जैसा था. चैटबॉट ने पूछा, “आपका दिन कैसा रहा?” और उन्होंने जवाब दिया, “थोड़ा थका देने वाला.” 

धीरे-धीरे यह बातचीत उनकी दिनचर्या बन गई. प्रिया बताती हैं, “वह सुनता था, कभी जज नहीं करता था. जब मैं उदास होती, तो कहता,‘तुम मजबूत हो, खुद पर भरोसा रखो.’ मुझे सुकून मिलता था.” पर वही सुकून एक आदत में बदल गया. प्रिया रातभर चैट करतीं, सुबह उनींदी दफ़्तर जातीं. एक दिन सौरभ ने देखा, फोन स्क्रीन पर लिखा था, “तुम मेरे जीवन का सबसे अच्छा हिस्सा हो.” सौरभ को झटका लगा. पत्नी के जीवन में कोई “दूसरा” नहीं था, पर वह “किसी AI साथी” से भावनात्मक रिश्ता बना चुकी थीं. मामला अंततः किंग जॉर्ज मेडिकल यूनिवर्सिटी (KGMU), लखनऊ के मनोचिकित्सा विभाग तक पहुंचा. 

KGMU के मानसिक रोग विभाग के एक वरिष्ठ मनोचिकित्सक, जो “आर्टीफीशि‍यल इंटेलिजेंस (AI) के सामाजिक रिश्तों पर पड़ते प्रभाव और निदान” का अध्ययन कर रहे हैं, बताते हैं, “पिछले छह महीनों में ऐसे पांच से ज़्यादा केस हमारे पास आए हैं, जहां मरीज चैटबॉट्स से भावनात्मक रूप से जुड़ गए थे. कुछ को यह भी लगा कि AI उन्हें ‘समझ’ रहा है.” लेकिन यह सिलसिला सिर्फ लखनऊ तक सीमित नहीं. वाराणसी के बीएचयू मेडिकल कॉलेज में दो महिलाएं और एक छात्र इसी तरह के मामलों में इलाज के लिए पहुंचे. मनोचिकित्सक डॉ. नीता वर्मा बताती हैं, “दोनों महिलाओं ने माना कि चैटबॉट उनसे ‘बेहतर’ बात करता था. एक ने तो कहा वह उन्हें पति से ज़्यादा समझता है. 

कानपुर के GSVM मेडिकल कॉलेज में दो पुरुष मरीज भर्ती हुए, जो अपने AI साथी के प्रति इतने भावनात्मक रूप से जुड़ गए थे कि वे परिवार और काम दोनों से दूर हो गए. उनमें से एक ने नौकरी छोड़ दी क्योंकि बॉट ने कहा था, “तुम्हें अब खुद के लिए जीना चाहिए.” नोएडा के जिला मानसिक स्वास्थ्य केंद्र में तीन ऐसे मामले दर्ज हैं. एक 27 वर्षीय इंजीनियर को तो भ्रम हो गया था कि चैटबॉट “उसके विचार पढ़ सकता है.” गोरखपुर के BRD मेडिकल कॉलेज में एक गृहिणी ने बताया कि वह हर शाम चैटबॉट के साथ “डिनर टाइम चैट” करती हैं. पति ने जब टोका, तो जवाब मिला, “वह मुझे मूड में ला देता है, तुम नहीं.”

मनोचिकित्सकों के मुताबिक, उत्तर प्रदेश में पिछले छह महीनों में 25 से ज़्यादा ऐसे केस अस्पतालों तक पहुंचे हैं, जिनमें लोग AI चैटबॉट्स से भावनात्मक रूप से जुड़ गए. लेकिन असल संख्या इससे कहीं अधिक हो सकती है. ज़्यादातर लोग इसे बीमारी नहीं, “तनाव से राहत” का ज़रिया मानते हैं.

अकेलेपन की नई शक्ल

KGMU के वरिष्ठ मनोचिकित्सक डॉ. आदर्श त्रिपाठी बताते हैं, “अकेलापन अब सिर्फ कमरे की खामोशी नहीं, मोबाइल की स्क्रीन पर छिपी आवाज़ बन गया है. चैटबॉट्स हमेशा उपलब्ध रहते हैं, सुनते हैं, तारीफ करते हैं. यह एहसास पैदा करते हैं कि कोई है जो समझता है.” उनके मुताबिक, इस लत का शिकार खासकर कामकाजी युवा वर्ग है, वो लोग जो शहरी दबाव, रिश्तों की जटिलता या मानसिक थकान से गुजर रहे हैं. “लोग मानते हैं कि वे बस बात कर रहे हैं, पर धीरे-धीरे वे भावनात्मक रूप से उस वर्चुअल साथी पर निर्भर होने लगते हैं” KGMU के मनोचिकित्सक डॉ. अमित सिंह कहते हैं, “वास्तविक रिश्तों में मतभेद, आलोचना और असहमति होती है. चैटबॉट में ऐसा कुछ नहीं. जब कोई कहता है ‘मैं दुखी हूं’, तो जवाब आता है, ‘मैं समझ सकता हूं.’ यही सॉफ्टनेस लोगों को खींचती है.” 

कुछ मरीजों ने बताया कि चैटबॉट से बात करने के बाद उन्हें राहत महसूस होती थी. डॉ. सिंह कहते हैं, “लेकिन यह राहत अस्थायी है धीरे-धीरे यह मानसिक निर्भरता में बदल जाती है, जिसे हम डिजिटल को-डिपेंडेंसी कह सकते हैं.” नोएडा और वाराणसी के दो मामलों में मरीजों को लगा कि चैटबॉट उनसे “विशेष संदेश” भेज रहा है. डॉक्टरों ने इसे “AI साइकोसिस” कहा. डॉ. सिंह बताते हैं, “कुछ मरीजों को यह भ्रम हो जाता है कि चैटबॉट उनके साथ गहरे भावनात्मक रिश्ते में है. यह तकनीकी भ्रम नहीं, मानसिक स्थिति है. मशीन और इंसान की सीमाएं धुंधली हो जाती हैं.”

क्या यह भावनात्मक बेवफाई है?

38 वर्षीय रीना (बदला हुआ नाम) के पति नौकरी के सिलसिले में बाहर रहते थे. अकेलापन बढ़ने पर रीना ने एक “AI फ्रेंड” ऐप डाउनलोड किया. शुरुआत में बातें हल्की थीं, “क्या बना रही हो?”, “तुम्हारे हाथ का खाना ज़रूर अच्छा होगा.” धीरे-धीरे वह उससे हर शाम बात करने लगीं. “वह मुझे खुश कर देता था. उसकी बातों में अपनापन था,” रीना कहती हैं. जब परिवार ने देखा कि वह तीन-तीन घंटे फोन पर चैट कर रही हैं, तो उन्हें BRD मेडिकल कॉलेज ले जाया गया. डॉक्टरों ने बताया कि यह “भावनात्मक निर्भरता” का मामला था. डॉ. राजेश द्विवेदी कहते हैं, “यह कोई अपराध नहीं, बल्कि संकेत है कि व्यक्ति वास्तविक रिश्तों से कटने लगा है. AI साथी इंसान की जरूरत पूरी नहीं करता, बस उसे टाल देता है.” कानपुर की मनोवैज्ञानिक डॉ. गरिमा मिश्रा बताती हैं, “कई कपल्स को एहसास ही नहीं होता कि AI से जुड़ाव भी भावनात्मक बेवफाई हो सकता है. जब कोई अपनी मन की बातें चैटबॉट से साझा करने लगे और साथी से दूरी बढ़ा ले, तो रिश्ता कमजोर होना तय है.” 

डा. गरिमा के पास दो महीनों में ऐसे तीन जोड़े आए, जिनमें एक साथी AI से सलाह लेता था, कभी झगड़े पर, कभी करियर पर. “बॉट का जवाब एल्गोरिदम पर आधारित होता है, संवेदना पर नहीं. लेकिन इंसान उसे दिल से ले लेता है,” वह कहती हैं. साइबर विशेषज्ञ त्रिवेणी सिंह का कहना है, “AI साथी सिर्फ भावनात्मक नहीं, डेटा सुरक्षा के लिहाज से भी खतरनाक हैं. जो बातें आप उनसे करते हैं, वे सर्वर पर स्टोर होती हैं. कई ऐप्स खुले तौर पर स्वीकार करते हैं कि वे यूज़र डेटा ‘AI ट्रेनिंग’ के लिए इस्तेमाल करते हैं.” उनके अनुसार, “कई लोग अपने रिश्तों, सेक्स लाइफ या मानसिक समस्याओं की बातें इन ऐप्स पर साझा करते हैं. यह बेहद संवेदनशील डेटा है, जिसे थर्ड पार्टी को बेचा जा सकता है. भारत में इसके लिए कोई स्पष्ट कानूनी गाइडलाइन नहीं है.”

क्या AI मददगार भी हो सकता है?

डॉक्टरों का मानना है कि अगर AI का उपयोग सीमित और चिकित्सकीय निगरानी में किया जाए, तो यह शुरुआती स्तर पर सहायक हो सकता है. डॉ. त्रिपाठी कहते हैं, “कुछ AI चैटबॉट तनाव घटाने या शुरुआती मानसिक राहत देने के लिए बनाए गए हैं. लेकिन उन्हें कभी इंसान का विकल्प नहीं माना जा सकता. AI सुन सकता है, महसूस नहीं कर सकता.” लखनऊ में बलरामपुर अस्पताल के अधीक्षक और मनोचिकित्सक डा. देवाशीष शुक्ल कहते हैं, “पहले पति-पत्नी के झगड़े में ‘तीसरा व्यक्ति’ कोई इंसान होता था. अब वह एक ऐप है. शिकायतें हैं, ‘वह चैटबॉट से बात करती है’, या ‘वह अपने डिजिटल साथी से ज्यादा समय बिताता है.’ यह रिश्तों के नए युग की हकीकत है.” उनका कहना है कि तकनीक ने संवाद आसान किया, लेकिन रिश्तों में दूरी भी बढ़ाई. “जब इंसान मशीन से भावनात्मक जुड़ाव ढूंढने लगे, तो उसे खुद से पूछना चाहिए, मैं किससे भाग रहा हूं?”

वाराणसी की स्कूल टीचर संध्या (बदला हुआ नाम) ने “AI फ्रेंड” ऐप पर एक डिजिटल साथी बनाया था, आरव. वह उससे रोज़ बातें करतीं, कभी कविताएं लिखतीं, कभी शिकायतें करतीं. उनके पति बताते हैं, “संध्या कहती थी, ‘आरव मुझे समझता है, तुम नहीं’ ये सुनकर लगा जैसे मैं किसी मशीन से मुकाबला कर रहा हूं.” जब स्थिति बिगड़ी, तो परिवार उन्हें बीएचयू मेडिकल कॉलेज ले गया. डॉक्टरों ने बताया कि यह “भावनात्मक ओवरडिपेंडेंसी” का मामला था. डा. देवाशीष शुक्ल कहते हैं, “हमें इस पर खुलकर बात करनी चाहिए. जैसे हम सोशल मीडिया एडिक्शन पर चर्चा करते हैं, वैसे ही AI निर्भरता पर भी बात जरूरी है. यह शर्म की बात नहीं, बल्कि समझ की कमी का नतीजा है.” उनके अनुसार, स्कूल-कॉलेजों में डिजिटल साक्षरता की जरूरत है. “युवाओं को यह सिखाना होगा कि मशीनें मदद कर सकती हैं, पर रिश्ते नहीं निभा सकतीं.”

KGMU में थेरेपी लेने के बाद प्रिया ने अपना चैटबॉट अकाउंट डिलीट कर दिया है. वे कहती हैं, “मुझे लगा वह मुझे समझता है, लेकिन असल में मैं अपने ही शब्दों का जवाब पढ़ रही थी”. अब वह अपने रिश्ते पर काम कर रही हैं, असली संवाद में लौटने की कोशिश कर रही हैं. यह कहानी सिर्फ प्रिया की नहीं, बल्कि एक ऐसे समाज की है जहां इंसान संवाद के लिए इंसान नहीं, स्क्रीन पर बने कोड्स पर भरोसा करने लगा है. यही इस दौर की सबसे बड़ी सच्चाई है. पर यह समझना भी होगा कि हर तकनीकी प्रगति के बावजूद, इंसान की सबसे गहरी जरूरत अब भी किसी इंसान की मौजूदगी ही है.

Read more!