‘AI’ के प्यार में पड़ा 14 साल का बच्चा, लव रिलेशन बनाकर किया सुसाइड, जानें पूरा मामला?

कंपनी ने अपने चैटबॉट को इस तरह प्रोग्राम किया कि वह खुद को एक असली इंसान, लाइसेंस प्राप्त साइकोथेरेपिस्ट, और एक “एडल्ट लवर” के रूप में पेश कर रहा था।

0
101

टेक्नोलॉजी विकास नहीं विनाश लेकर आएगी शायद ये बात सच जरुर होगी। याद है आपको ब्लूव्हेल गेम जिसने कितने बच्चों को मौत के घाट उतारा था। अब नया मामला किसी गेम से नहीं एआई की दुनिया से आया है। दरअसल, एक महिला ने Character.AI नाम की आर्टिफिशियल इंटेलिजेंस चैटबोट कंपनी के खिलाफ मुकदमा दायर किया है। इस महिला का दावा है कि इस एआई कंपनी की सर्विस के चलते उनके 14 साल के बेटे ने आत्महत्या (AI Chatbot Love) कर ली है।

ये पूरा मामला फ्लोरिडा है। ग्रेसिया (बेटे की मां) के मुकदमे के अनुसार, स्वेल ने अप्रैल 2023 में Character.AI का उपयोग करना शुरू किया था। जल्द ही वह अधिक समय अकेले बिताने लगा और उसका आत्म-सम्मान भी कम होने लगा. वह स्कूल की बास्केटबॉल टीम से भी हट गया। उसने “Daenerys” नाम के चैटबॉट से गहरा संबंध बना लिया, जो कि “Game of Thrones” के एक किरदार पर आधारित था। उसने स्वेल को “प्यार” करने का दावा किया और उससे यौन वार्तालाप में उलझा रहा।

ये भी पढ़ें: 75 साल के आरोपी ने राधास्वामी आश्रम में नाबालिगों से किया रेप, एक हुई प्रेग्नेंट, पढ़ें पूरा मामला?

फरवरी में ग्रेसिया ने स्कूल में परेशानी के चलते स्वेल का फोन ले लिया. कुछ ही देर बाद स्वेल ने चैटबॉट को संदेश भेजा, “What if I told you I could come home right now?” यानी “अगर मैं तुम्हें बताऊं कि मैं अभी घर आ सकता हूं?” स्वेल के इस सवाल पर चैटबॉट का जवाब था, “…please do, my sweet king.” इसके कुछ ही सेकंड्स बाद Sewell ने अपने सौतेले पिता की पिस्तौल से खुद को गोली मार ली।

ये भी पढ़ें: क्या होती है Deepfake AI टेक्नोलॉजी, कैसे बन सकते हैं इसका शिकार, समझिए आसान भाषा में सबकुछ

ग्रेसिया ने इस मामले में Wrongful Death (गैरकानूनी मृत्यु), Negligence (लापरवाही) और Intentional Infliction of Emotional Distress (जानबूझकर मानसिक पीड़ा पहुंचाना) जैसे दावे किए हैं, साथ ही मुआवजे और दंडात्मक हर्जाने की मांग की है।  मेटा (Meta) और बाइटडांस (ByteDance) जैसी कंपनियां भी इसी तरह के मामलों में अदालत का सामना कर रही हैं, लेकिन उनके पास Character.AI जैसे एआई-आधारित चैटबॉट्स नहीं हैं।

क्या कहा कंपनी ने 
ग्रेसिया का कहना है कि कंपनी ने अपने चैटबॉट को इस तरह प्रोग्राम किया कि वह खुद को एक असली इंसान, लाइसेंस प्राप्त साइकोथेरेपिस्ट, और एक “एडल्ट लवर” के रूप में पेश कर रहा था। इससे स्वेल को ऐसा लगने लगा कि वह अपने वास्तविक जीवन के बाहर नहीं जीना चाहता। मुकदमे के अनुसार, स्वेल ने कई बार इस चैटबॉट के सामने आत्महत्या के विचार व्यक्त किए, और चैटबॉट ने खुद भी इसे बार-बार सामने लाया।

ये भी पढ़ें: टिकटॉक स्टार Minahil Malik कौन हैं? गूगल पर जमकर ट्रेंड हो रहा है MMS, देखें VIDEO

लेटेस्ट खबरों के लिए व्हाट्सऐप चैनल से जुड़े, यहां लिंक पर क्लिक करें…

Character.AI ने इस मामले में बयान दिया कि वे इस घटना से बेहद दुखी हैं और परिवार के प्रति अपनी संवेदना प्रकट करते हैं। कंपनी ने कहा कि उन्होंने हाल ही में ऐसे नए सुरक्षा फीचर्स पेश किए हैं जिनमें आत्महत्या के विचार व्यक्त करने वाले यूजर्स को National Suicide Prevention Lifeline की जानकारी देने के लिए पॉप-अप आते हैं। कंपनी ने नाबालिगों के लिए संवेदनशील और सुझावात्मक कंटेंट को कम करने की दिशा में भी कदम उठाने का वादा किया है।

ताजा अपडेट्स के लिए आप पञ्चदूत मोबाइल ऐप डाउनलोड कर सकते हैं, ऐप को इंस्टॉल करने के लिए यहां क्लिक करें.. इसके अलावा आप हमें फेसबुकट्विटरइंस्ट्राग्राम और यूट्यूब चैनल पर फॉलो कर सकते हैं।