AI व्हिडीओ कॉलने 5.15 कोटींची फसवणूक, स्वतःला याप्रकारे वाचवा Deepfakeच्या फसवणुकीपासून


सायबर ठगांसाठी आर्टिफिशियल इंटेलिजन्स (एआय) तंत्रज्ञान अतिशय उपयुक्त असल्याचे सिद्ध होत आहे. अलीकडेच, चीनमधील एका व्यक्तीने एआय फसवणुकीत अडकून सुमारे 5.15 कोटी रुपये गमावले. AI वरून बनावट व्हिडिओ कॉल तयार करण्यात आला. असे करून घोटाळेबाजांनी या व्यक्तीला अडकवले. एआय Deepfake तंत्रज्ञानाच्या मदतीने ही व्यक्ती पैसे हस्तांतरित करण्यासाठी तयार होती. Deepfake आणि एआयच्या जाळ्यात लोक कसे फसत आहेत आणि फसवणूकही होत आहे, हे या घटनेवरून दिसून येते. अशी फसवणूक कशी टाळता येईल त्याबद्दल जाणून घेऊ या.

सायबर गुन्हेगार फसवणूक करण्यासाठी एआय तंत्रज्ञानाचा किती चतुराईने वापर करत आहेत हे चीनचे प्रकरण दर्शवते. Deepfake तंत्रज्ञानाने परिस्थिती आणखी बिघडते. Deepfakeमुळे प्रत्येक गोष्ट खरी भासते आणि लोक सहजपणे बनावट गोष्टींवर विश्वास ठेवतात आणि त्यांचे नुकसान करतात.

पीडितेला त्याच्या मित्राच्या नावाने व्हिडिओ कॉल आला. हे कॉल सायबर गुन्हेगार करत होते. सायबर ठगने पीडितेच्या मित्राचा बनावट चेहरा बनवला आणि एआय Deepfake फेस स्वॅपिंग तंत्रज्ञानाद्वारे व्हिडिओ कॉलवर बोलला. त्याने पीडितेला आपण आपला मित्र असल्याचे पटवून दिले. पीडितेने मित्र मानून सुमारे 5.15 कोटी रुपये ट्रान्सफर केले.

पीडितेला त्याच्या मित्राने असा कोणताही व्हिडिओ कॉल किंवा 5.15 कोटी रुपयांच्या व्यवहाराचा तपशील नाकारल्यानंतर फसवणूक झाल्याचे लक्षात आले. मात्र, पोलिसांनी बहुतांश रक्कम जप्त केली आहे. सायबर गुन्हेगार फसवणूक, फोटो, व्हिडीओ आणि आता व्हिडीओ कॉल अशा सर्व प्रकारे प्रयत्न करत आहेत.

Deepfake टाळण्याच्या टिप्स

या टिप्ससह, आपण Deepfakeचे षड्यंत्र टाळण्याचा प्रयत्न करू शकता.

  • Deepfake व्हिडिओ किंवा फोटोमध्ये त्वचा आणि शरीराच्या काही भागांमध्ये दोष दिसून येतात.
  • डोळ्याभोवती सावल्या
  • असामान्य लुकलुकणारा नमुना
  • चष्म्यावर असामान्य चमक
  • चेहऱ्यावर बनावट हावभाव
  • ओठांचा नैसर्गिक रंग चेहऱ्यापेक्षा वेगळा असणे
  • चेहऱ्याशी केस जुळत नाहीत
  • चेहऱ्यावर बनावट तीळ

ही सर्व चिन्हे आहेत जी सूचित करतात की Deepfake एक फसवणूक असू शकते.