सावधान! आ गया AI के जरिए ठगी का नया तरीका, दिल्ली की ये घटना आपको चिंता में डाल देगी!

AI के जरिए किसी का भी असली जैसा दिखने वाला फर्जी वीडियो या फोटो बनाया जा सकता है. ऐसा ही होता है आवाजों के साथ। आपके आवाज के कुछ नमूने अगर AI को दिए जाएं तो वो उसी आवाज में नई बातें रिकॉर्ड कर देगा।

0
304

आर्टिफिशियल इंटेलिजेंस के जरिए ठगी (ai scams in india) का एक और नया मामला सामने आया है। ठगी की घटना दिल्ली के यमुना विहार की है। जानकारी के मुताबिक, एक युवक के रोने की आवाज AI की मदद से बनाई गई फिर युवक के चाचा को वो आवाज सुनाकर उसके अपहरण की बात की गई और 50 हजार रूपये ठग लिए।

आपको पूरा मामला विस्तार से बताते हैं। दिल्ली के रहने वाले लक्ष्मी चंद चावला के मोबाइल पर व्हाट्सएप कॉल आया। उनसे कहा गया कि कॉल करने वाले के पास उनका भतीजा है। अगर 50 हजार रूपये नहीं भेजे गए तो वो उनके भतीजे के साथ मारपीट करेगा। इसके बाद लक्ष्मी चंद चावला को एक आवाज सुनाई गई। वो आवाज उनके भतीजे के आवाज से मिलती-जुलती थी। आवाज रोने की थी।

ये आवाज सुनकर लक्ष्मी चंद चावला घबरा गए। उन्हें डर हो गया कि कहीं कॉल करने वाला उनके भतीजे को नुकसान न पहुंचा दे। उन्हें लगा कि उनके भतीजे का अपहरण हो गया है। कॉल करने वाले ने उन्हें एक पेटीएम नंबर दिया। उन्होंने डर और घबराहट में दिए गए नंबर पर 50 हजार रूपये भेज दिए।

ये भी पढ़ें: Golden Globes 2024 : ‘बार्बी’ और ‘ओपेनहाइमर’ का गोल्डन ग्लोब्स 2024 में जलवा…देखें नॉमिनेशन लिस्ट

पैसे भेजने के बाद उन्होंने अपने भाई को फोन किया और अपने भतीजे के बारे में पूछा। पता चला कि उनका भतीजा अपने घर पर है और बिल्कुल सुरक्षित है। भतीजे का नाम कपिल है, जिसकी उम्र 25 साल है। भतीजे को सुरक्षित पाकर लक्ष्मी चंद समझ गए कि उनके साथ ठगी हुई है।

ये भी पढ़ें: क्या होती है Deepfake AI टेक्नोलॉजी, कैसे बन सकते हैं इसका शिकार, समझिए आसान भाषा में सबकुछ

इसके बाद, उन्होंने पुलिस में शिकायत दर्ज करवाई। नॉर्थ ईस्ट दिल्ली की साइबर थाना पुलिस ने इस मामले में FIR दर्ज कर ली है और मामले में जांच की जा रही है। पुलिस इस मामले में मनी ट्रेल को ट्रैक करने की कोशिश कर रही है. मनी ट्रेल में इस बात की जांच की जाती है कि पैसे को कब और किस अकाउंट में ट्रांसफर किया गया। अभी तक पुलिस को इस मामले में कोई सुराग नहीं मिला है।

ये भी पढ़ें: Alia Bhatt Deepfake Video: रश्मिका मंदाना-काजोल के बाद आलिया भट्ट का डीपफेक video viral

साइबर ठगों की नई चाल से बचने के लिए ये सावधानियां बरतें:

किसी अनजान नंबर से आने वाली कॉल का जवाब न दें।
– अगर आप किसी अनजान नंबर से कॉल का जवाब देते हैं तो उस व्यक्ति की पहचान पहले सुनिश्चित कर लें।
– किसी भी व्यक्ति को पैसे देने से पहले उसकी पहचान और उसके बारे में पूरी जानकारी लें।

ये भी पढ़ें: Redmi 13C फोन की पहली सेल आज, मिल रहे हैं कम कीमत पर बेहतरीन ऑफर्स, अभी देखें

DeepFake तकनीक भी ठगी का जरिया
AI के जरिए किसी का भी असली जैसा दिखने वाला फर्जी वीडियो या फोटो बनाया जा सकता है. ऐसा ही होता है आवाजों के साथ। आपके आवाज के कुछ नमूने अगर AI को दिए जाएं तो वो उसी आवाज में नई बातें रिकॉर्ड कर देगा। यानी किसी की भी असली जैसी आवाज में फर्जी बातें AI से रिकॉर्ड कराई जा सकती हैं। आवाज के नमूने WhatsApp या अन्य मैसेंजर ऐप पर भेजे गए वॉयस मैसेज या कॉल रिकॉर्डिंग के जरिए इकट्ठा किए जा सकते हैं।


हमारे साथ व्हाट्सऐप पर जुड़ने के लिए क्लिक करें (We’re now on WhatsApp, Click to join)


ताजा अपडेट्स के लिए आप पञ्चदूत मोबाइल ऐप डाउनलोड कर सकते हैंऐप को इंस्टॉल करने के लिए यहां क्लिक करें.. इसके अलावा आप हमें फेसबुकट्विटरइंस्ट्राग्राम और यूट्यूब चैनल पर फॉलो कर सकते हैं।