AQI
Sign In

By signing in or creating an account, you agree with Associated Broadcasting Company's Terms & Conditions and Privacy Policy.

प्रसिद्ध अभिनेत्रीचा नको तो व्हिडीओ व्हायरल… नकली व्हिडीओही असली वाटणारं डिपफेक तंत्रज्ञान काय आहे?

What is AI DeepFake : प्रसिद्ध अभिनेत्रीचा अशा अवस्थेत व्हिडीओ व्हायरल झाल्यानंतर सर्वत्र खळबळ, जाणून घ्या नकली व्हिडीओही असली वाटणारं डिपफेक तंत्रज्ञान काय आहे? सध्या सर्वत्र अभिनेत्रीच्या व्हिडीओची चर्चा... तुम्ही देखील राहा सावध

प्रसिद्ध अभिनेत्रीचा नको तो व्हिडीओ व्हायरल... नकली व्हिडीओही असली वाटणारं डिपफेक तंत्रज्ञान काय आहे?
| Updated on: Nov 06, 2023 | 3:20 PM
Share

मुंबई : 6 नोव्हेंबर 2023 | आर्टिफिशियल इंटेलिजेन्स बाजारात आल्यापासून याचा चुकीचा वापर होताना देखील दिसत आहे. जे टूल्स आपल्या सोयीसाठी तयार करण्यात आले आहेत, त्याचा अनेक जण गैरवापर करताना दिसत आहेत. ज्यामुळे अनेकांची बदनामी होण्याची शक्यता देखील नाकारता येत नाही. दरम्यान अभिनेत्री रश्मिका मंदाना हिचा फेक व्हिडीओ सध्या सोशल मीडियावर तुफान व्हायरल होतं आहे. व्हिडीओमध्ये प्रसिद्ध मिळवण्यासाठी महिलेने अभिनेत्रीच्या चेहऱ्याचा वापर केल्याची देखील चर्चा रंगली आहे. रश्मिका हिचा फेक व्हिडीओ एक्स ‘ट्विटर’वर तुफान व्हायरल होत आहे. जवळपास 2 मिलियनपेक्षा अधिक लोकांनी व्हिडीओ पाहिला आहे.

सांगायचं झालं तर अभिनेत्रीचा फेक व्हिडीओ डीपफेक या सॉफ्टवेअरच्या मदतीने तयार करण्यात आला आहे.डीपफेक हा एक प्रकारचा सिंथेटिक मीडिया आहे. ज्यामध्ये AI वापरून एखाद्या व्यक्तीचा फोटो किंवा व्हिडिओचा वापर करत दुसऱ्या व्यक्तीसोबत बदलण्यात येतो. AI सध्या तुफान चर्चेत आहे. महत्त्वाची गोष्ट म्हणजे AI च्या क्षमतेमुळे सामान्य व्यक्तींना बनावट व्हिडिओ ओळखणे कठीण होतं. एवढंच नाही तर या जाळ्यात सामान्य व्यक्त अडकू देखील शकतो.

रश्मिका हिचा फेम व्हिडीओ व्हायरल झाल्यामुळे सर्वत्र खळबळ माजली आहे. व्हिडीओमध्ये झारा पटेल नावाची महिला लिफ्टमध्ये येताना दिसत आहे. लिफ्टमध्ये येत असताना, झारा हिचा चेहरा बदलतो आणि रश्मिका हिचा चेहरा समोर येतो. हा फेक व्हिडीओ AI टूलच्या मदतीने तयार करण्यात आला आहे. यावर महानायक अमिताभ बच्चन यांनी देखील कारवाई करण्याची मागणी केली आहे.

स्वतःचा कसा कराल बचाव?

आर्टिफिशियल इंटेलिजेन्स आल्यापासून अनेक जण टुलचा गैरवापर करताना दिसत आहेत. अशात तुमच्या फोटो किंवा व्हिडीओंचा कोणी गैरवापर करु नये म्हणून सोशल मीडियावर स्वतःचे फोटो आणि व्हिडीओ पोस्ट करु नका. आर्टिफिशियल इंटेलिजेन्सच्या जाळ्यातून स्वतःचा बचाव करण्यासाठी तुम्ही स्वतःचं सोशल मीडियावर अकाऊंड प्रायव्हेट ठेवा आणि स्वतःची अधिक माहिती सोशल मीडियावर पोस्ट करु नका.

आताच्या घडीला Deepfake अनेक ऍप्सवर उपलब्ध आहे. Deepfake च्या मदतीने तुम्ही फोटो, व्हिडीओमध्ये असणाऱ्या व्यक्तीच्या चेहऱ्यावरील हावभाव बदलू शकता, एका व्यक्तीचा चेहरा दुसऱ्या व्यक्तीच्या चेहऱ्यासोबत बदलू शकता, बॉडी शेप बदलू शकता, एवढंच नाही तर व्यक्तीचा आवाज बदलण्याची शक्ती देखील Deepfake मध्ये आहे.

वलसाडच्या ‘हापूस’ नामांकनाला कोकणचा कडाडून विरोध थेट...
वलसाडच्या ‘हापूस’ नामांकनाला कोकणचा कडाडून विरोध थेट....
BMC इज नॉट फॅमिली बिझनेस... भाजप नेत्याचा उद्धव ठाकरे यांना खोचक टोला
BMC इज नॉट फॅमिली बिझनेस... भाजप नेत्याचा उद्धव ठाकरे यांना खोचक टोला.
चुनाभट्टी येथे चैत्यभूमीकडे जाणाऱ्या आंबेडकर अनुयायांचा रास्ता रोको
चुनाभट्टी येथे चैत्यभूमीकडे जाणाऱ्या आंबेडकर अनुयायांचा रास्ता रोको.
तिन्ही पक्षाचा मालिक एक, अ‍ॅनाकोंडा गिळल्याशिवाय... ठाकरेंचा निशाणा
तिन्ही पक्षाचा मालिक एक, अ‍ॅनाकोंडा गिळल्याशिवाय... ठाकरेंचा निशाणा.
अमित ठाकरे यांच्या मेहुण्याच्या दिल्लीत विवाह, मोदींची सोहळ्याला हजेरी
अमित ठाकरे यांच्या मेहुण्याच्या दिल्लीत विवाह, मोदींची सोहळ्याला हजेरी.
जसं पार्थ पवारांना माफ केलं तसं तपोवनातील झाडांना...मनसेकडून थेट इशारा
जसं पार्थ पवारांना माफ केलं तसं तपोवनातील झाडांना...मनसेकडून थेट इशारा.
मालवणमध्ये फिरायला जाताय? सिंधुदुर्गात जाणाऱ्या जेटीची अवस्था बघा!
मालवणमध्ये फिरायला जाताय? सिंधुदुर्गात जाणाऱ्या जेटीची अवस्था बघा!.
नटरंगी नार.... रुपाली ठोंबरेंचा रोख कुणावर? कोणाचा घेतला खरपूस समाचार?
नटरंगी नार.... रुपाली ठोंबरेंचा रोख कुणावर? कोणाचा घेतला खरपूस समाचार?.
फडणवीसांचा दरिंदा, जल्लाद अन् गजनी उल्लेख, काँग्रेस नेता पुन्हा बरळला
फडणवीसांचा दरिंदा, जल्लाद अन् गजनी उल्लेख, काँग्रेस नेता पुन्हा बरळला.
इंदू मिल स्मारकाबाबत CM फडणवीसांची मोठी घोषणा, थेट सांगितली डेडलाईन
इंदू मिल स्मारकाबाबत CM फडणवीसांची मोठी घोषणा, थेट सांगितली डेडलाईन.