AQI
Sign In

By signing in or creating an account, you agree with Associated Broadcasting Company's Terms & Conditions and Privacy Policy.

प्रसिद्ध अभिनेत्रीचा नको तो व्हिडीओ व्हायरल… नकली व्हिडीओही असली वाटणारं डिपफेक तंत्रज्ञान काय आहे?

What is AI DeepFake : प्रसिद्ध अभिनेत्रीचा अशा अवस्थेत व्हिडीओ व्हायरल झाल्यानंतर सर्वत्र खळबळ, जाणून घ्या नकली व्हिडीओही असली वाटणारं डिपफेक तंत्रज्ञान काय आहे? सध्या सर्वत्र अभिनेत्रीच्या व्हिडीओची चर्चा... तुम्ही देखील राहा सावध

प्रसिद्ध अभिनेत्रीचा नको तो व्हिडीओ व्हायरल... नकली व्हिडीओही असली वाटणारं डिपफेक तंत्रज्ञान काय आहे?
| Updated on: Nov 06, 2023 | 3:20 PM
Share

मुंबई : 6 नोव्हेंबर 2023 | आर्टिफिशियल इंटेलिजेन्स बाजारात आल्यापासून याचा चुकीचा वापर होताना देखील दिसत आहे. जे टूल्स आपल्या सोयीसाठी तयार करण्यात आले आहेत, त्याचा अनेक जण गैरवापर करताना दिसत आहेत. ज्यामुळे अनेकांची बदनामी होण्याची शक्यता देखील नाकारता येत नाही. दरम्यान अभिनेत्री रश्मिका मंदाना हिचा फेक व्हिडीओ सध्या सोशल मीडियावर तुफान व्हायरल होतं आहे. व्हिडीओमध्ये प्रसिद्ध मिळवण्यासाठी महिलेने अभिनेत्रीच्या चेहऱ्याचा वापर केल्याची देखील चर्चा रंगली आहे. रश्मिका हिचा फेक व्हिडीओ एक्स ‘ट्विटर’वर तुफान व्हायरल होत आहे. जवळपास 2 मिलियनपेक्षा अधिक लोकांनी व्हिडीओ पाहिला आहे.

सांगायचं झालं तर अभिनेत्रीचा फेक व्हिडीओ डीपफेक या सॉफ्टवेअरच्या मदतीने तयार करण्यात आला आहे.डीपफेक हा एक प्रकारचा सिंथेटिक मीडिया आहे. ज्यामध्ये AI वापरून एखाद्या व्यक्तीचा फोटो किंवा व्हिडिओचा वापर करत दुसऱ्या व्यक्तीसोबत बदलण्यात येतो. AI सध्या तुफान चर्चेत आहे. महत्त्वाची गोष्ट म्हणजे AI च्या क्षमतेमुळे सामान्य व्यक्तींना बनावट व्हिडिओ ओळखणे कठीण होतं. एवढंच नाही तर या जाळ्यात सामान्य व्यक्त अडकू देखील शकतो.

रश्मिका हिचा फेम व्हिडीओ व्हायरल झाल्यामुळे सर्वत्र खळबळ माजली आहे. व्हिडीओमध्ये झारा पटेल नावाची महिला लिफ्टमध्ये येताना दिसत आहे. लिफ्टमध्ये येत असताना, झारा हिचा चेहरा बदलतो आणि रश्मिका हिचा चेहरा समोर येतो. हा फेक व्हिडीओ AI टूलच्या मदतीने तयार करण्यात आला आहे. यावर महानायक अमिताभ बच्चन यांनी देखील कारवाई करण्याची मागणी केली आहे.

स्वतःचा कसा कराल बचाव?

आर्टिफिशियल इंटेलिजेन्स आल्यापासून अनेक जण टुलचा गैरवापर करताना दिसत आहेत. अशात तुमच्या फोटो किंवा व्हिडीओंचा कोणी गैरवापर करु नये म्हणून सोशल मीडियावर स्वतःचे फोटो आणि व्हिडीओ पोस्ट करु नका. आर्टिफिशियल इंटेलिजेन्सच्या जाळ्यातून स्वतःचा बचाव करण्यासाठी तुम्ही स्वतःचं सोशल मीडियावर अकाऊंड प्रायव्हेट ठेवा आणि स्वतःची अधिक माहिती सोशल मीडियावर पोस्ट करु नका.

आताच्या घडीला Deepfake अनेक ऍप्सवर उपलब्ध आहे. Deepfake च्या मदतीने तुम्ही फोटो, व्हिडीओमध्ये असणाऱ्या व्यक्तीच्या चेहऱ्यावरील हावभाव बदलू शकता, एका व्यक्तीचा चेहरा दुसऱ्या व्यक्तीच्या चेहऱ्यासोबत बदलू शकता, बॉडी शेप बदलू शकता, एवढंच नाही तर व्यक्तीचा आवाज बदलण्याची शक्ती देखील Deepfake मध्ये आहे.

मरेपर्यंत काँग्रेसमध्ये...प्रशांत जगताप काँग्रेसमध्ये, पंजा हाती घेतला
मरेपर्यंत काँग्रेसमध्ये...प्रशांत जगताप काँग्रेसमध्ये, पंजा हाती घेतला.
नाद अन् दहशत या शब्दांवरून महायुतीच्या दोन मंत्र्यांमध्ये जुंपली
नाद अन् दहशत या शब्दांवरून महायुतीच्या दोन मंत्र्यांमध्ये जुंपली.
महापालिका निवडणुकीत घराणेशाहीचं वाढतं प्रस्थ, कुटुंबासाठी लॉबिंग
महापालिका निवडणुकीत घराणेशाहीचं वाढतं प्रस्थ, कुटुंबासाठी लॉबिंग.
बीएमसी निवडणुकीसाठी अजित पवार यांच्या राष्ट्रवादीसमोर मोठी अट
बीएमसी निवडणुकीसाठी अजित पवार यांच्या राष्ट्रवादीसमोर मोठी अट.
लाल किल्ल्या स्फोट प्रकरणात महाराष्ट्र कनेक्शन उघड, आरोपीनं...
लाल किल्ल्या स्फोट प्रकरणात महाराष्ट्र कनेक्शन उघड, आरोपीनं....
प्रशांत जगताप काँग्रेसमध्ये येताच म्हणाले, माझी लढाई भाजप विरोधात....
प्रशांत जगताप काँग्रेसमध्ये येताच म्हणाले, माझी लढाई भाजप विरोधात.....
प्रशांत जगतापांचा हर्षवर्धन सपकाळांच्या उपस्थितीत काँग्रेसमध्ये प्रवेश
प्रशांत जगतापांचा हर्षवर्धन सपकाळांच्या उपस्थितीत काँग्रेसमध्ये प्रवेश.
पुण्यात शिंदे सेनेत नाराजीनाट्य, नीलम गोऱ्हेंच्या घराबाहेर ठिय्या
पुण्यात शिंदे सेनेत नाराजीनाट्य, नीलम गोऱ्हेंच्या घराबाहेर ठिय्या.
...तर त्यांच्यासोबत नसू, दोन्ही NCP एकत्र येण्यावर दानवे काय म्हणाले?
...तर त्यांच्यासोबत नसू, दोन्ही NCP एकत्र येण्यावर दानवे काय म्हणाले?.
फडणवीसांकडून ठाकरे बंधूंना पुतीन-झेलेन्स्की उपमा अन् जागावाटपावर भाष्य
फडणवीसांकडून ठाकरे बंधूंना पुतीन-झेलेन्स्की उपमा अन् जागावाटपावर भाष्य.