Google ॲक्शन मोडमध्ये, YouTube वरून काढून टाकले सेलिब्रिटींचे हजारो डीपफेक व्हिडिओ


डीपफेकचा मुद्दा बऱ्याच दिवसांपासून चर्चेत आहे, आतापर्यंत अनेक बॉलिवूड सेलिब्रिटींचे डीपफेक व्हिडिओ समोर आले आहेत. डीपफेकचा सामना करण्यासाठी सरकार सर्वतोपरी प्रयत्न करत आहे, त्यामुळेच डीपफेकच्या मुद्द्यावर सरकार आणि सोशल मीडिया प्लॅटफॉर्म यांच्यात बैठकही झाली आहे. डीपफेकच्या बाबतीत सरकार शून्य सहनशीलतेचे धोरण अवलंबणार असल्याचे आधीच स्पष्ट झाले आहे. Google च्या मालकीच्या व्हिडिओ स्ट्रीमिंग प्लॅटफॉर्म YouTube ने सेलिब्रिटींच्या डीपफेक घोटाळ्याच्या जाहिराती असलेले 1000 हून अधिक व्हिडिओ काढून टाकले आहेत.

यूट्यूबने हे देखील स्पष्ट केले आहे की प्लॅटफॉर्मवर AI सेलिब्रिटी घोटाळ्याच्या जाहिराती थांबवण्यासाठी कंपनी मोठ्या प्रमाणात गुंतवणूक करत आहे. यूट्यूबचे म्हणणे आहे की, तपासणीनंतर, स्टीव्ह हार्वे, टेलर स्विफ्ट आणि जो रोगन यांसारख्या सेलिब्रिटींच्या AI व्हिडिओंचा समावेश असलेल्या 1000 हून अधिक व्हिडिओ काढून टाकण्याचा मोठा निर्णय घेण्यात आला आहे.

आश्चर्याची गोष्ट म्हणजे अशा बनावट व्हिडिओंना यूट्यूबवर 200 दशलक्ष (20 कोटी) पेक्षा जास्त व्ह्यूज मिळाले आहेत. अनेक दिवसांपासून युजर्स आणि सेलिब्रिटी अशा व्हिडिओंबाबत यूट्यूबकडे तक्रार करत आहेत.

मायक्रोब्लॉगिंग प्लॅटफॉर्म X वर टेलर स्विफ्टचा गैर-सहमतीचा डीपफेक व्हिडिओ व्हायरल झाल्यानंतर YouTube ने ही कारवाई केली आहे. पोस्ट काढून टाकण्यापूर्वी, पोस्टला 45 दशलक्ष (4.5 कोटी) व्ह्युज आणि 24 हजार रीपोस्ट मिळाले होते. पोस्ट जवळजवळ 17 तास X वर लाईव्ह राहिली.

404 मीडियाच्या रिपोर्टमध्ये असे नमूद करण्यात आले आहे की युजर्स टेलीग्राम ग्रुप्समध्ये एआयने तयार केलेल्या महिलांचे अश्लील फोटो शेअर करतात. सायबर सिक्युरिटी फर्म डीपट्रेसच्या नवीनतम संशोधनानुसार, सुमारे 96 टक्के डीपफेक अश्लील आणि महिलांशी संबंधित आहेत.

AI च्या मदतीने डीपफेक फोटो, ऑडिओ आणि व्हिडिओ तयार केले जातात. डीपफेक तंत्रज्ञानाच्या मदतीने तयार केलेले फोटो आणि व्हिडिओ नंतर व्हायरल करून खरा खेळ सुरू होतो.