इटली की प्रधानमंत्री जॉर्जिया मेलोनी (Giorgia Meloni Deepfake) ने डीपफेक वीडियो चर्चा में है। दरअसल, ये वीडियो आरोपियों ने मेलोनी के प्रधानमंत्री बनने से पहले यानी 2022 में डीपफेक वीडियो बनाया था। इसमें एडल्ट फिल्म स्टार के चहरे पर जॉर्जिया का चेहरा लगाया गया था। दोनों आरोपियों पर मानहानि का केस दर्ज किया गया था।
अब प्रधानमंत्री जॉर्जिया मेलोनी (Giorgia Meloni) ने डीपफेक वीडियो के मामले में मुआवजा मांगा है। 40 साल के साल के आरोपी ने अपने 73 साल के पिता के साथ मिलकर मेलोनी का वीडियो अमेरिकी एडल्ट कॉन्टेंट वेबसाइट पर पोस्ट किया था।
बीबीसी के मुताबिक, मेलोनी ने 1 लाख यूरो, यानी करीब 90 लाख रुपए का मुआवजा मांगा है। इस मामले में वो ससारी कोर्ट में 2 जुलाई को गवाही देंगी। BBC की रिपोर्ट में कहा गया कि कथित एडल्ट वीडियो अपलोड करने के लिए इस्तेमाल किए गए मोबाइल से पुलिस आरोपियों तक पहुंची।
मेलोनी की वकील मारिया गिउलिया मारोंगिउ ने कहा- प्रधानमंत्री जो मुआवजा मांग रही हैं वो प्रतीकात्मक है। इस मुआवजे का उद्देश्य इस तरह के अपराध का शिकार हुई महिलाओं को यह संदेश देना है कि वे आवाज उठाने से न डरें। यदि मुआवजा दिया जाता है, तो वह हिंसा का शिकार हुई महिलाओं की मदद के लिए एक कोष में राशि दान करेंगी।
Italy PM Giorgia Meloni seeks over $100,000 In damages over her Deepfake pornographic videos uploaded on the internet. pic.twitter.com/BYyWNo9dwf
— South Asian Digest (@SADigestOnline) March 21, 2024
वहीं, मेलोनी की टीम की तरफ से जारी बयान के मुताबिक, 2022 में अपलोड हुए इस वीडियो को लाखों लोगों ने देखा है। इटली के कानून के मुताबिक, कुछ मानहानि के मामलों में आपराधिक आरोप और यहां तक कि संभावित कारावास भी हो सकता है।
ये भी पढ़ें: क्या होती है Deepfake AI टेक्नोलॉजी, कैसे बन सकते हैं इसका शिकार, समझिए आसान भाषा में सबकुछ
डीपफेक क्या है?
आज के डिजिटल दौर में कई बार गलत खबरें और भ्रामक जानकारियां इंटरनेट की मदद से लोगों तक पहुंचाई जा रही हैं। ऐसे ही वीडियो भी पहुंचाए जाते हैं। इसे डीपफेक कहते हैं। इसमें असली और नकली की पहचान बेहद मुश्किल होती है। इसमें आर्टिफिशियल इंटेलिजेंस तकनीक (AI) और मशीन लर्निंग सॉफ्टवेयर का इस्तेमाल किया जाता है। इनका उपयोग करके मीडिया फाइल जैसे फोटो, ऑडियो और वीडियो की परिवर्तित कॉपी तैयार की जाती है, जो वास्तविक फाइल की तरह ही दिखती है। सरल भाषा में कहें तो डीपफेक, मॉर्फ वीडियो का ही एडवांस रूप है।
हमें ट्विटर पर फॉलो करें-
पंचदूत के व्हाट्सऐप चैनल से जुड़ने के लिए नीचे दिए लिंक पर क्लिक करें
Click here & Join WhatsApp Channel- https://t.co/6YHcASHqbY pic.twitter.com/2SseA82e8T— Panchdoot (@Panchdoot1) October 11, 2023
ये भी पढ़ें: वायरल वीडियो सचिन तेंदुलकर की नहीं, DeepFake का शिकार हुआ खिलाड़ी
भारत में डीपफेक कब चर्चा में आया?
बॉलीवुड एक्ट्रेस रश्मिका मंदाना का डीपफेक वीडियो सोशल मीडिया पर वायरल हुआ था। जारा पटेल नाम की एक लड़की के चेहरे को बदलकर रश्मिका का चेहरा लगा दिया गया था। जिसके बाद ये मामला भारत में काफी चर्चा में आया। इसके बाद हर किसी ने इस मामले में प्रतिक्रिया दी। कड़ी निंदा भी की।
व्हाट्सऐप पर हमें फॉलो करें, लिंक नीचे
हमारे साथ व्हाट्सऐप पर जुड़ने के लिए यहां क्लिक करें (We’re now on WhatsApp, Click to join)
ताजा अपडेट्स के लिए आप पञ्चदूत मोबाइल ऐप डाउनलोड कर सकते हैं, ऐप को इंस्टॉल करने के लिए यहां क्लिक करें.. इसके अलावा आप हमें फेसबुक, ट्विटर, इंस्ट्राग्राम और यूट्यूब चैनल पर फॉलो कर सकते हैं।