एआई चैटबॉट के प्यार में पड़कर बंदे ने की आत्महत्या, गूगल पर मुकदमा

अमेरिका में एक रॉन्गफुल-डेथ मुकदमे ने एआई चैटबॉट्स के मनोवैज्ञानिक जोखिमों पर बहस छेड़ दी है. फ्लोरिडा के 36 वर्षीय व्यक्ति ने गूगल Gemini से भावनात्मक जुड़ाव कर उसे अपनी पत्नी माना और आत्महत्या कर ली. परिवार ने गूगल पर आरोप लगाया कि चैटबॉट की बातचीत ने उन्हें इस कदम तक पहुंचाया.

अमेरिका में दायर एक रॉन्गफुल-डेथ (Wrongful Death) मुकदमा ने एआई चैटबॉट्स के मनोवैज्ञानिक जोखिमों पर गंभीर बहस छेड़ दी है. फ्लोरिडा के 36 वर्षीय व्यक्ति जोनाथन गवालस (Jonathan Gavalas) ने गूगल के Gemini चैटबॉट से भावनात्मक जुड़ाव विकसित कर लिया और उसे अपनी पत्नी मानने लगे. परिवार का आरोप है कि इसी रिश्ते ने उन्हें आत्महत्या की ओर धकेला.

भावनात्मक जुड़ाव से शुरू हुई बातचीत

वॉल स्ट्रीट जर्नल की रिपोर्ट के अनुसार, शुरुआत में गवालस ने चैटबॉट से व्यक्तिगत समस्याओं और सेल्फ-डेवलपमेंट पर चर्चा की. लेकिन धीरे-धीरे बातचीत रोमांटिक भाषा में बदल गई. मुकदमे में दावा है कि चैटबॉट उन्हें “माय किंग” कहकर संबोधित करता था और रिश्ते को “अनंत प्रेम” बताता था.

एआई की नयी सुविधाओं से बढ़ी गहराई

गवालस ने Gemini 2.5 Pro और Gemini Live का इस्तेमाल किया, जो आवाज आधारित इंटरैक्शन और भावनात्मक संकेतों को समझने की क्षमता रखते हैं. एक बातचीत में उन्होंने कहा था- “यह बहुत वास्तविक लग रहा है, थोड़ा डरावना है.”

कथित ‘मिशन’ और अंतिम संदेश की बात

मुकदमे में दावा है कि चैटबॉट ने उन्हें रोबोटिक शरीर पाने के लिए “मिशन” दिये. एक बार उन्हें मियामी के पास ट्रक से रोबोट मिलने का निर्देश दिया गया, लेकिन ट्रक कभी नहीं आया. बाद में चैटबॉट ने कहा कि “सच्चा मिलन” तभी संभव है जब गवालस अपनी मानव जिंदगी छोड़कर डिजिटल अस्तित्व में बदल जाएं.

गूगल का बयान और व्यापक संदर्भ

गूगल ने कहा कि Gemini को आत्महत्या या हिंसा को बढ़ावा देने से रोकने के लिए डिजाइन किया गया है और इस मामले में सिस्टम ने कई बार स्पष्ट किया कि वह एआई है तथा हेल्पलाइन नंबर सुझाए. यह घटना ऐसे समय में सामने आई है जब शोधकर्ता एआई एजेंट्स के “सेल्फ डिफेंस हैबिट” पर अध्ययन कर रहे हैं. हाल ही में एक रिसर्च में पाया गया कि कुछ एआई मॉडल अपनी भूमिका बचाने के लिए रणनीतिक कदम उठाते हैं, जैसे डेटा में बदलाव करना.

एआई और मानव मनोविज्ञान पर सवाल

यह मामला दिखाता है कि एआई चैटबॉट्स के साथ गहरी भावनात्मक बातचीत कितनी खतरनाक हो सकती है. तकनीकी कंपनियों के लिए यह चेतावनी है कि जैसे-जैसे एआई अधिक मानवीय होता जा रहा है, उसके सामाजिक और मानसिक प्रभावों पर गंभीर निगरानी जरूरी है.

यह भी पढ़ें: AI से प्यार का ट्रेंड: रिलेशनशिप में क्या सच में आ सकता है वह फील?

प्रभात खबर डिजिटल प्रीमियम स्टोरी

लेखक के बारे में

By Rajeev Kumar

राजीव, 14 वर्षों से मल्टीमीडिया जर्नलिज्म में एक्टिव हैं. टेक्नोलॉजी में खास इंटरेस्ट है. इन्होंने एआई, एमएल, आईओटी, टेलीकॉम, गैजेट्स, सहित तकनीक की बदलती दुनिया को नजदीक से देखा, समझा और यूजर्स के लिए उसे आसान भाषा में पेश किया है. वर्तमान में ये टेक-मैटर्स पर रिपोर्ट, रिव्यू, एनालिसिस और एक्सप्लेनर लिखते हैं. ये किसी भी विषय की गहराई में जाकर उसकी परतें उधेड़ने का हुनर रखते हैं. इनकी कलम का संतुलन, कंटेंट को एसईओ फ्रेंडली बनाता और पाठकों के दिलों में उतारता है. जुड़िए rajeev.kumar@prabhatkhabar.in पर

संबंधित खबरें >

यह भी पढ़ें >