Deepfake Video Of Veteran Industrialist and Former Tata Group Chairman Ratan Tata: मुंबई : सोशल मीडियावर (Social Media) कधी काय व्हायरल होईल हे सांगता येत नाही. सध्या डीपफेक व्हिडीओचा (Deepfake Video) प्रश्न ऐरणीवर आहे. डीपफेक व्हिडीओच्या माध्यमातून मोठ्या व्यक्तींच्या चेहऱ्याचा वापर करुन फसवणूक केली जात आहे. बॉलीवूड सेलिब्रिटींशिवाय, आता सोशल ठगांनी ज्येष्ठ उद्योगपती (Veteran Industrialist) आणि टाटा समूहाचे (Tata Group) माजी अध्यक्ष रतन टाटा (Ratan Tata) यांनाही लक्ष्य केलं आहे. सोशल मीडियावर एक व्हिडीओ शेअर केला जात आहे. ज्यामध्ये जोखीममुक्त आणि 100 टक्के हमीसह 'हायप्ड गुंतवणूक' करण्यासाठी रतन टाटा यांच्या नावाचा वापर करुन गुंतवणूक करण्याचं आवाहन करण्यात आलं आहे.
सोशल मीडियावर डीप फेक व्हिडीओ व्हायरल झाल्यानंतर ज्येष्ठ उद्योजक आणि टाटा समूहाचे माजी अध्यक्ष रतन टाटा यांनी स्वतः याबाबत स्पष्टीकरण देत लोकांना सतर्क केलं. रतन टाटा यांनी सोशल मीडियावर याबाबत एक पोस्टही केली. रतन टाटा यांनी आपल्या इन्स्टाग्राम पोस्टमध्ये लिहिलं की, सोशल मीडियावर व्हायरल होणारा व्हिडीओ खोटा आहे. तसेच, ज्या युजरकडून हा व्हिडीओ पोस्ट केला आहे, त्या व्हिडीओचा आणि युजरच्या नावाचाही उल्लेख रतन टाटा यांनी केला आहे. रतन टाटा यांनी स्पष्ट शब्दांत आपल्या पोस्टमधून युजरला खडसावलं आहे. तसेच, या व्हिडीओमध्ये आपली खोटी मुलाखतही वापरण्यात आल्याचं रतन टाटा यांनी आपल्या पोस्टमधून सांगितलं आहे. तसेच, या व्हिडीओवर विश्वास ठेवू नका, असं आवाहनही रतन टाटा यांनी सर्वांना केलं आहे.
खोट्या व्हिडीओंना बळी पडू नका, रतन टाटांचं आवाहन
फेक व्हिडीओमध्ये रतन टाटा सोना अग्रवाल यांना त्यांची मॅनेजर म्हणून संबोधताना दिसत आहेत. डीपफेक व्हिडीओ पोस्टच्या कॅप्शनमध्ये असं लिहिलं आहे की, "भारतातील प्रत्येकासाठी रतन टाटा यांच्याकडून एक शिफारस. 100 टक्के हमीसह तुमची गुंतवणूक जोखीममुक्त वाढवण्याची ही तुमची संधी आहे. आताच चॅनलला भेट द्या." लोकांच्या खात्यात पैसे येत असल्याचे मेसेजही व्हिडीओमध्ये दाखवण्यात आले होते. दरम्यान, ज्येष्ठ उद्योजक रतन टाटा यांनी व्हिडीओ आणि व्हिडीओच्या कॅप्शनचा स्क्रीनशॉट फेक असल्याचं सांगत आपल्या फॉलोअर्सना सावध केलं आहे. तसेच, अशा खोट्या व्हिडीओंना बळी पडू नका, असं आवाहनही केलं आहे.
दरम्यान, 'डीपफेक' म्हणजे सोशल मीडियावरही खऱ्या फोटो आणि व्हिडीओंचा वापर करुन त्यात छेडछाड करुन खोटा, फेक व्हिडीओ तयार केला जातो. यामध्ये आर्टिफिशियल इंटेलिजन्स (AI) च्या मदतीनं डिजिटल मॅनिप्युलेशन केलं जातं. अलीकडे, काही बॉलिवूड कलाकारांना लक्ष्य करणारे अनेक 'डीपफेक' व्हिडीओ सोशल मीडियावर व्हायरल झाले आहेत. तेव्हापासून सरकार तंत्रज्ञानाचा आणि साधनांचा गैरवापर करून फेरफार सामग्री आणि बनावट डीपफेक व्हिडीओ तयार करण्यांबाबत सतर्क झालं आहे. तसेच, काही कठोर पावलंही उचलली आहेत.