‘डीपफेक’ हा शब्द कृत्रिम बुद्धिमत्तेच्या (AI) प्रकारातून आला आहे. ज्याला डीप लर्निंग म्हणतात. नावाप्रमाणेच deepfakes बनावट घटनांच्या प्रतिमा तयार करण्यासाठी सखोल शिक्षण वापरतात. डीप लर्निंग अल्गोरिदम डेटाच्या मोठ्या संचातील समस्यांचे निराकरण कसे करावे हे स्वतःला शिकवू शकतात. हे तंत्रज्ञान बनावट मीडिया तयार करण्यासाठी व्हिडिओ आणि इतर डिजिटल सामग्रीमध्ये चेहरे बदलण्यासाठी वापरले जाते. शिवाय, डीपफेक केवळ व्हिडिओंपुरते मर्यादित नाही, या तंत्रज्ञानाचा वापर प्रतिमा, ऑडिओ इत्यादी इतर बनावट सामग्री तयार करण्यासाठी देखील केला जाऊ शकतो.
डीप फेक टेक्नॉलॉजीच्या मदतीने कुणाची बदनामी होऊ शकते. डीप फेकचा वापर विशेषतः महिला आणि मुलींना लक्ष्य करतो. कोणत्याही व्यक्तीचे त्याच्या सोशल मीडिया प्रोफाइलवरून खाजगी फोटो काढून बनावट अश्लील व्हिडिओ बनवता येतात. कोणत्याही नेत्याचा एमएमएस करता येतो. या तंत्रज्ञानाच्या मदतीने त्यांनी कधीही न दिलेल्या भाषणांचे व्हिडिओ प्रसिद्ध करता येणार आहेत.
डीपफेक या टेक्नॉलॉजी पासून वाचण्यासाठी कोणत्याही सोशल मीडिया प्लॅटफॉर्मवर आपला फोटो शेअर करताना काळजी घ्या. असा प्रकार तुमच्या सोबत घडल्यास तात्काळ पोलिसांमध्ये तक्रार दाखल करा. तर हा डीपफेक काँटेंट ओळखण्यासाठी तुम्ही संबंधित व्हिडिओमधील व्यक्तीचे स्किनचा कलर, अंगाची ठेवण यातील फरक, डोळ्यांजवळची वर्तुळ, डोळ्यांची होणारी उघडझाप किंवा नजर, तोंड आणि चेहऱ्याचे हावभाव, चेहरा आणि ओठांचा ताळमेळ नसणे, चेहरा आणि केसांचा ताळमेळ नसणे, चेहऱ्यावरील खुणा मॅच न होणे. या सर्व गोष्टींच्या तपासणी आणि तुम्ही हा व्हिडिओ फेक आहे किंवा नाही हे जाणून घेऊ शकता.
डीप फेक तंत्रज्ञानावर काही प्रमुख प्लॅटफॉर्मवर बंदी घालण्यात आली आहे. कारण या तंत्रज्ञनाचा गैरवापर केला जाऊ शकतो. कधीकधी चुकीची माहिती पुरवण्यासाठी किंवा एखाद्याची बदनामी करण्याची या तंत्रज्ञानाचा वापर केला जाऊ शकतो. अशा तंत्रज्ञानाचा वापर चुकीच्या हेतूने करण्यात आल्याच्या अनेक घटना भारतात घडल्या आहेत. मात्र, भारतात अशा घटनांना तोंड देण्यासाठी कोणतीही कठोर, कायदेशीर आणि नियामक चौकट नाही.