“भारत का सबसे बड़ा खतरा: क्या आप डीपफेक्स के लिए संवेदनशील हैं?”

भारत का सबसे बड़ा खतरा: जैसे जैसी आज की पीढ़ी AI की तरफ आकर्षित हो रही है उतना ही डीपफेक तकनिक लोगों की प्राइवेसी के लिए बड़ा खतरा बन रहा है क्योंकि यह आपकी प्राइवेसी का गलत उपयोग कर रहा है इस तकनीक से सिर्फ आम लोग ही नहीं बल्कि बॉलीवुड सेलिब्रिटीज और राजनेता भी प्रभावित हो रहे हैं। डीपफेक का प्रभाओ सभी पर बहुत ख़तरनाक तरीके से पढ़ रहा है पर इसमें महिलाओं को ज्यादा शिकार बनाया जा रहा है।

सेलिब्रिटीज से लेकर राजनीतिक नेता भी हैं परेशान 

भारत का सबसे बड़ा खतरा: डीपफेक टेक्निक से आम लोग सेलिब्रिटीज और राजनीतिक नेता भी परेशान हैं। अभिनेत्री रश्मिका मंदाना से लेकर काजोल, कैटरीना सहित अन्य अभिनेत्री का भी डीपफेक बनाया जा चूका है सिर्फ इतना ही नहीं बल्कि पीएम मोदी का भी एक डीपफेक वीडियो वायरल हुआ है जिसमें वह गरबा करते हुए नजर आए। जिस के बाद उन्होंने Deepfake को भारत के लोगों के लिए एक बड़ा खतरा बताया गया है। 

क्या है Deepfake? 

डीपफेक आर्टिफिशियल इंटेलिजेंस (AI) का उपयोग करता है डीपफेक का इस्तेमाल अक्सर लोग गलत इरादे से करते हैं जिसमें किसी की भी तस्वीर, वीडियो या ऑडियो को गलत इरादे से मॉडरेट किया जाता है। उस व्यक्ति को बिना बताए उसकी प्राइवेसी का दुरुपयोग किया जाता है देखने में तो ऐसे वीडियो या इमेज बिल्कुल असली नजर आते हैं ऐसा लगता है जैसे कोई वास्तव में यह काम कर रहा है। डीपफेक के जरिये किसी भी इंसान की फोटो या वीडियो का इस्तेमाल करके उससे वह काम भी करवाया जा सकता है जो उसने असल में किया ही ना हो। 

Deepfake समाज में दीमक की तरह फेल रहा 

गहरे समुद्र के बढ़ते उपयोग को देखते हुए मुंबई से पुनित भसीन जो साइबर लॉ और डेटा प्रोटेक्शन प्राइवेसी के विशेषज्ञ हैं और उनका कहना है की “पहले भी लोगों की तस्वीरों को मॉर्फ किया जाता था लेकिन वो पता चल जाता था लेकिन एआई के जरिए जो डीपफेक किया जा रहा है वो इतना परफेक्ट (सटीक) होता है कि सही या ग़लत में भेद कर पाना मुश्किल होता है. ये किसी के शील का अपमान करने के लिए काफ़ी होता है”।  

डीपफेक का उपयोग ऑडियो, वीडियो और इमेज तीनों में होता है 

आर्टिफिशियल इंटेलिजेंस के माध्यम से डीपफेक का उपयोग ऑडियो वीडियो से लेकर इमेजेस तक में किया जाता है जिसके बाद यह भेद कर पाना मुश्किल होता है कि असल कौन सा है और फेक कोनसा, वही ऑडियो का भी डीपफेक किया जाता है जिसमें बड़ी हस्तियों की आवाज़ बदलने के लिए वॉयस स्किन या वॉयस क्लोन्स का इस्तेमाल किया जाता है। 

ब्लैकमेल करने के लिए किया जाता है इसका उपयोग 

अक्सर Deepfake का उपयोग साइबर अपराधियों द्वारा फिरौती या मनोरंजन के लिए किया जाता है। क्या मामले में AI विशेषज्ञ पवन दुग्गल बताते हैं की ये लोगों के अश्लील वीडियो बनाते हैं और फिर ब्लैक मेल करके फ़िरौती के लिए इसका इस्तेमाल करते हैं। 

किसी व्यक्ति की छवि को ख़राब करने के लिए सोशल मीडिया पर डाल देते हैं और इसका उपयोग ख़ासकर सेलिब्रिटीज, राजनीतिज्ञों और बड़ी हस्तियों को नुकसान करने के लिए किया जा रहा है। इसके साथ ही इसका एक और करण यह भी है कि लोग ऐसे वीडियो देखना पसंद करते हैं, इसलिए अप्राधि ऐसे वीडियो बनाते हैं ताकि उनके वीडियो पर व्यूज बड़े और उनका फ़ायदा हो। 

इसे भी पढ़ें – किसान योजना से प्राप्त करें 12,000 रुपये वार्षिक

Leave a Comment