Rasmika Mandanna लेबलों वाले संदेश दिखाए जा रहे हैं. सभी संदेश दिखाएं
Rasmika Mandanna लेबलों वाले संदेश दिखाए जा रहे हैं. सभी संदेश दिखाएं

रविवार, 5 अक्टूबर 2025

डीपफेक वीडियो और भारत में डिजिटल अधिकार: गोपनीयता व पर्सनॅलिटी राइट्स पर बढ़ता खतरा

डीपफेक वीडियो का खतरनाक प्रभाव और गोपनीयता अधिकार
Image by Danujaya Kavinda from Pixabay
प्रस्तावना 

वर्तमान में डिजिटल तकनीकी जिस तेज गति से आगे बढ़ रही है, उससे अधिक तेज गति से उसके दुरूपयोग का खतरा भी बढ़ा है | 

डीपफेक की गंभीरता को समझते हुए प्रधान मंत्री मोदी ने भी इसके खतरों के प्रति गहरी चिंता जाहिर की तथा कहा कि "डिजिटल मीडिया एक बड़ी चिंता" | 

डिजिटल तकनीकी का सर्वाधिक आधुनिक हतियार आर्टीफिसिअल इंटेलिजेंस (AI) अर्थात कृत्रिम बुद्धिमता की मदद से बनाये गए अनेक डीपफेक वीडियो आजकल आम से लेकर खास व्यक्तियों के लिए गंभीर समस्या बन रहे हैं |

ये वीडियो या सामिग्री इतनी वास्तविक होती है कि आम आदमी के लिए असली नकली की पहचान अत्यधिक मुश्किल काम होता है | 

डीपफेक वीडियो क्या है ?

डीपफेक वीडियो या सामिग्री कृतिम बुद्धिमता और मशीन लर्निंग के सयुंक्त गठजोड़ से निर्मित की जाती है | 

इसमें किसी व्यक्ति का चेहरा, उसके भाव -भंगिमा, उसके शरीर तथा उसकी चाल ढाल को इस तरह बदल दिया जाता है कि तैयार सम्पूर्ण सामिग्री पूर्ण रूप से वास्तविक लगने लगती है | 

डीपफेक वीडियो का खतरनाक प्रभाव और गोपनीयता अधिकार

उदाहरण स्वरुप हाल ही में एक अभिनेता की आर्टिफिशियल इंटेलिजेंस वॉयस क्लोन का उपयोग करके एक डीपफेक वीडियो बनाया गया था।जिसमें वॉलीवुड अभिनेता रणवीर सिंह को बेरोजगारी और मुद्रास्फीति के विषय  को लेकर प्रधानमंत्री नरेंद्र मोदी की आलोचना करते हुए दिखाया था |

कर्नाटक के पूर्व सीएम डी वी सदानंद गौड़ा  का एक डीप फेक वीडियो वायरल हुया, जिसके सम्बन्ध में उन्हें पुलिस में शिकायत दर्ज करानी पडी थी | 

सुप्रीम कोर्ट की जस्टिस नागरत्ना ने आर्टिफीसियल इंटेलिजेंस और डीपफेक से बच्चो के शोषण से बचाने की लिए  कठोर क़ानून बनाने का सुझाव दिया है | 

डीपफेक से उत्पन्न खतरे और चुनौतियाँ 

भारत में गोपनीयता अधिकार और डिजिटल सुरक्षा
Image by Leandro De Carvalho from Pixabay

नूरा फतेही, प्रियंका चोपड़ा,ऎश्वर्या रॉय, आलिया भट्ट, सचिन तेंदुलकर,रश्मिका मंदाना और रतन टाटा जैसी हस्तियां डीपफेक तकनीकी का शिकार हो चुकी हैं | टाटा नैनो रतन टाटा के जीवन का सर्वाधिक महत्वाकांक्षी प्रोजेक्ट रहा है | 

वर्ष 2023 में दीपावली के अवसर पर प्रधानमंत्री नरेंद्र मोदी ने दिल्ली स्थित बीजेपी कार्यालय पर कहा कि डीपफेक इस समय भारतीय व्यवस्था के सामने सबसे बड़े खतरों में से एक है और इससे समाज में अराजकता फैल सकती है।

मोदी ने आह्वान किया कि मीडिया डीपफेक के खतरों के प्रति जनता को जागरूक करने में सहयोग करें | 

डीपफेक के खतरों और चुनौतियों के बारे मैं नीचे संक्षेप में वर्णित किया गया है | |   


1. गोपनीयता का अधिकार और डीपफेक 

किसी व्यक्ति  द्वारा किसी भी महिला या पुरुष का चेहरा ,शरीर या आवाज  या कोई अन्य बस्तु का बिना उसकी अनुमति के किसी भी रूप में उपयोग करना उन व्यक्तियो के निजता के अधिकार का उलंघन होता है |  

माननीय सुप्रीम कोर्ट ने Justice K S Puttaswami vs Union of India 2017 में स्थापित किया है कि निजता का अधिकार ,संविधान के अनुच्छेद 21 के तहत जीवन और स्वंत्रता का अभिन्न हिस्सा है |  

डीपफेक सामिग्री द्वारा किसी भी व्यक्ति की निजता पर प्रत्यक्ष हमला होता है क्यों कि शातिर अपराधियों द्वारा पीड़ित व्यक्ति की सहमति के बिना उसकी पहचान का दुरूपयोग किया जाता है |

2. मानहानि और मानसिक आघात 

डीपफेक तकनीकी से निर्मित सामिग्री जैसे ही सोशल मीडिया में पहुँचती है या वायरल होती है | जब उस व्यक्ति को डीपफेक काकनीकी से बने वीडियो की स्वयं या किसी और के माध्यम से जानकारी होती है तो यह मानहानि तथा मानसिक आघात का सबब बन जाता है |  

वायरल हुई वीडियो से पैदा हुई मानसिक आघात  की स्थति कभी कभी आत्मह्त्या तक पहुंच जाती है | यह उन परिवारों के लिए कभी न पूरी होने वाली क्षति बन जाती है | 

इसके अलावा मानसिक आघात की स्थति में स्वास्थ्य के अधिकार का गंभीर उलंघन होता है | स्वास्थ्य के अधिकार में मानसिक स्वास्थ्य भी शामिल होता है |  

3. महिला और बच्चों की सुरक्षा के लिए गंभीर संकट 

वर्ष 2017 के शुरुआती दौर में महिला हस्तियों को डीपफेक का पहला निशाना बनाया गया और यह काम किया गया था, उस समय उपलब्ध अश्लील वीडियो पर महिला हस्तियों के चेहरे को सुपरइम्पोज़ (एक चेहरे के ऊपर  दूसरा चेहरा रख देना) करके। 

विश्व भर में महिलाओं और बच्चों के विरुद्ध डीपफेक तकनीक का बहुत दुरूपयोग हो रहा है | महिलायें और बच्चे  इस तकनीक के प्रति बहुत संवेदनशील हैं | इन्हे डिजिटल तकनीकी के क्षेत्र में शातिर हमलावरों द्वारा आसानी से निशाना बना लिया जाता है |

अपराधियों का भय और सामाजिक सर्मिंदगी के चलते महिलाये और बच्चे खुलकर समय रहते अपनी शिकायत दर्ज नहीं कराते हैं | यह स्थति महिलाओं और बच्चों के विरुद्ध डिजिटल हिंसा को कई गुना बढ़ा देती है |  

4.डीपफेक तकनीकी का बढ़ता राजनीतिक दुरूपयोग 

डीपफेक तकनीकी का पिछले कुछ समय से अत्यधिक राजनीतिक दुपयोग देखा जा रहा है | डीपफेक तकनीकी का उपयोग करते हुए पार्टियाँ विपक्षी पार्टियों को बदनाम करती हैं और चुनाव परिणामों को अपने पक्ष में कर लेती हैं | 

यह तकनीकी लोकतंत्र के लिए अत्यधिक घातक सिद्ध हो रही है | सबसे बड़ी बात यह है कि इसकी रोकथाम के लिए अभी कोई पुख्ता प्रणाली उपलब्ध नहीं है | 

किसी भी देश के नागरिक बिना मजबूत लोकतंत्र के अपने मानव अधिकारों का वास्तविक और बिना रोकटोक के उपयोग नहीं कर सकते हैं |     

पर्सनॅलिटी राइट्स (Personality Rights) क्या हैं ? 

पर्सनॅलिटी राइट्स से तात्पर्य ऐसे अधिकारों से है जो किसी व्यक्ति का नाम ,चेहरा, आवाज या कोई अन्य पहचान जो उसके नियंत्रणाधीन है,से सम्बंधित है | 

किसी भी कंपनी ,ब्रांड या किसी व्यक्ति को पर्सनॅलिटी राइट्स का उपयोग उस उस व्यक्ति की सहमति के बिना करने की अनुमति नहीं है, जिससे  ये सम्बंधित हैं | 

उदाहरण स्वरुप किसी कंपनी या व्यक्ति  द्वारा किसी वॉलीवुड स्टार महिला या पुरुष का अर्टिफिफिशल इंटेलिजेंस (AI) से निर्मित सामिग्री का उपयोग किया जाना पर्सनालिटी राइट्स के उलंघन  का एक उदाहरण है |   

भारत में पर्सनॅलिटी राइट्स की मान्यता 

पर्सनॅलिटी राइट्स पर भारत में अभी कोई विशेष क़ानून उपलब्ध नहीं है लेकिन पर्सनालिटी राइट्स से जुड़े मुकदद्मों को भातीय न्यायालयों द्वारा मान्यता दी गई है | 

उदाहरण के तौर पर ICC Devlopment vs. Arvee Enterprises 2003 में माननीय कोर्ट ने स्थापित किया है कि किसी भी व्यक्ति की पहचान का उपयोग उसकी अनुमति के बिना नहीं किया जा सकता है | 

अभी हाल ही में बॉलीवुड अभिनेत्री ऐश्वर्या राय बच्चन ने अपने पर्सनॅलिटी राइट्स के उलंघन को लेकर दिल्ली हाई कोर्ट में एक याचिका डाली गई | 

याचिका को स्वीकार करते हुए कोर्ट ने कहा कि अदालतें उनके व्यक्तित्व अधिकारों के अनधिकृत शोषण पर आंखें नहीं मूंद सकतीं।

भारत में डीपफेक और कानूनी स्थति 

1. सूचना प्रौद्योगिकी अधिनियम, 2000

यह कानून, सूचना प्रौद्योगिकी अधिनियम, 2000 ई गवर्नेन्स को बढ़ावा देने, इलेक्ट्रॉनिक वाणिज्य, इलेक्ट्रॉनिक दस्तावेजों और डिजिटल हस्ताक्षरों को मान्यता देने और साइबर अपराधों जिसमे हैकिंग तथा ऑनलाइन धोखाधड़ी शामिल है, को रोकने और दण्डित करने के लिए बनाया गया | 

लेकिन अंतर्राष्ट्रीय साइबर कानून के अनुसरण में  वर्ष 2011 में इसमें संशोधन किया जिसमे साइबर अपराधों के दायरे को बढ़ाते हुए बाल पोर्नोग्राफी, पहचान की चोरी और निजता के उल्लंघन जैसे  गंभीर मामलों को भी शामिल किया। 

2.भारतीय न्याय सहिता (BNS),  2023 

इस कानून के तहत डीपफेक तकनीकी से निर्मित सामिग्री के प्रसार से यदि किसी व्यक्ति की मानहानि होती है तो वह इस क़ानून का सहारा लेकर न्यायालय में जा सकता है | 

इस सम्बन्ध में बेईमानी और अश्लील सामिग्री से जुड़े अपराधों में भी कानूनी कार्यवाही पीड़ित व्यक्ति  द्वारा की जा सकती है |

डिजिटल सुरक्षा पर अंतर्राष्ट्रीय दृष्टिकोण 

डिजिटल उपकरणों का उपयोग महिलाओं और लड़कियों  के विरुद्ध हिंसा के नए हतियार के रूप में तेजी के साथ किया जा रहा है | जिसमे मेनोस्फेअर(manosphere)जैसे नेटवर्क भी शामिल हैं| 

महिलाओं और लड़कियों के खिलाफ हिंसा हर तीन में से एक महिला को प्रभावित करती है। यह एक वैश्विक मानवाधिकार आपातकाल है जिसे रोकना ज़रूरी है। यह कहना है संयुक्त राष्ट्र महिला का | 

सभी के लिए एक खुला, सुरक्षित और संरक्षित डिजिटल भविष्य सुनिश्चित करने के लिए संयक्त राष्ट्र संघ ने ग्लोबल डिजिटल कॉम्पैक्ट का खाका तैयार किया गया है | 

यह समझौता 193 सदस्य देशों के वैश्विक परामर्श से तैयार किया गया है | भारत भी सयुंक्त राष्ट्र संघ का एक सदस्य देश है | 

यह संयुक्त राष्ट्र संघ के सदस्य देशों की सरकारों को ऑनलाइन अंतर्राष्ट्रीय कानून और मानवाधिकारों को बनाए रखने तथा डिजिटल स्पेस को सुरक्षित बनाने के लिए ठोस कदम उठाने के लिए प्रतिबद्ध करता है।  

अब सिर्फ ग्लोबल डिजिटल कॉम्पैक्ट को क्रियान्वित करने के लिए वैश्विक स्तर पर तेजी से प्रबल इच्छा शक्ति के साथ प्रयास किये जाने की आवश्यकता है। 

डीपफेक से बचाव और समाधान 

1. तकनीकी उपाय 

डीपफेक पहचानने के लिए आर्टिफीसियल इंटेलीजेंस तकनीक
Image by anonima2020 from Pixabay edited on Canva

डीपफेक सामिग्री से बचाव और समाधान में तकनीकी का महत्वपूर्ण योगदान है | 

चूँकि डीपफेक सामिग्री के निर्माण में आर्टिफीसियल इंटेलिजेंस (AI) जैसी आधुनिक डिजिटल तकनीकी का उपयोग किया जाता है | 

इस लिये उसके बचाव और समाधान के लिए भी और अधिक उन्नत डिजिटल तकनीकी का उपयोग आवश्यक होगा | 

यह दुर्भाग्य की बात है कि आर्टीफिसिअल इंटेलिजेंस का दुरुपयोग अत्यधिक बढ़ गया है, लेकिन उसका दुरुपयोग रोकने के लिए प्रशिक्षण सम्बंधित शिक्षा का अभाव दिखाई देता है | 

फेक न्यूज़ या सूचना के तथ्यों की  सटीक जांच करने के लिए एक विश्वसनीय प्लेटफॉर्म  Alt News
Source: Logo of AltNews.in taken from its home page

प्रतीक सिन्हा पेशे से एक सॉफ्टवेयर इंजीनियर हैं, उन्होंने भारत में  तथ्य- जाँच पोर्टल ऑल्ट न्यूज़ की सह-सस्थापक के तौर पर स्थापना की थी |

वे सोशल मीडिया के क्षेत्र में झूठे तथ्यों की जाँच के लिए एक जानी -मानी  हस्ती बन गए है | 

वे सोशल मीडिया पर झूठी खबरों और डीपफेक तकनीकी से निर्मित सामिग्री, जिसमे वीडियो भी शामिल हैं, की आधुनिक डिजिटल तकनीकी से जांच कर बताते हैं कि सामिग्री असली है या उसे डीपफेक तकनीकी के उपयोग से असली जैसा बनाया गया है, जबकि वह नकली है|

डीपफेक सामिग्री की जांच के लिए आज जरूरत है इस तरह से समर्पित केंद्रों को स्थापित करने की, जिससे समय रहते डीपफेक सामिग्री की सत्यता की जांच हो सके |

2. कानूनी उपाय :नए कानून की आवश्यकता 

डिजिटल युग में मानव अधिकार और गोपनीयता के अधिकार की सुरक्षा
Image by Robinraj Premchand from Pixabay edited on canva

सिर्फ भारत में ही नहीं दुनिया भर में डीपफेक अपराधों की बाढ़ सी आ गई है | डीपफेक तकनीकी से निर्मित सामिग्री का उपयोग करके सबसे अधिक डिजिटल हिंसा का शिकार आधी आबादी अर्थात महिलाओं और बच्चों को बनाया जा रहा है|  

ऐसी स्थति में इस गंभीर और जटिल समस्या के समाधान की लिए जल्द से जल्द नए कानून को बनाए और लागू किये जाने की आवश्यकता सभी लोग महसूस कर रहे हैं | 

3. सामाजिक जागरूकता 

किसी भी देश में सभी कार्य वहाँ की सरकारें नहीं कर सकती हैं | इस लिए बहुत से कार्य गैर सरकारी संगठन करते हैं | गैर सरकारी संगठनों की पहुंच समाज के अंतिम आदमी तक होती है | 

ऐसी स्थति में समाज में डीपफेक के खतरों और उसके समाधान के लिए जागरूकता के लिए गैर सरकारी संगठनों और नागरिक समाज को आगे आना चाहिए | 

इस समस्या की गंभीरता के सम्बन्ध में प्रधान मंत्री मोदी ने भी चेताया है | इस सम्बन्ध में सरकार को डिजिटल साक्षरता को भी बढ़ावा देना चाहिए | 

4.व्यक्तिगत सतर्कता 

यह सर्व विदित है कि आज, अधिकाँश लोग आम हो या खास हो, डिजिटल तकनीकी का किसी न किसी रूप में उपयोग कर रहा है | फिर चाहे वह मोबाइल का उपयोग ही क्यों न कर रहा हो |

डिजिटल तकनीकी का उपयोग कर रहे शातिर अपराधी ऐसा जाल बुनते हैं कि फोन खोलते ही वे ऐसे आकर्षण में फसा लेते है कि मजबूरन व्यक्ति उनके जाल में फंस जाता है और पता तब लगता है जब बहुत देर हो चुकी होती है | डीपफेक का सहारा लेकर साइबर अपराधी डिजिटल अरेस्ट जैसे अपराधों को भी अंजाम दे रहे हैं | 

डीपफेक से पीड़ित व्यक्ति डर और सामाजिक लज्जा के कारण अपनी परेशानी को समय से अन्य से साझा नहीं करता है | 

व्यक्तिगत सतर्कता के चलते कई को अपनी निजी तस्वीरें साझा नहीं करनी चाहिए | यदि कोई सामिग्री संदिग्ध दिखाई देती है तो उसे मिलने वाले ,परिवारीजनों या पुलिस को तत्काल सूचित करना चाहिए | 

व्यक्तिगत सतर्कता के चलते व्यक्तियों को अपनी बात कहनी चाहिए, उन्हें पीड़ितों का समर्थन करना चाहिए तथा उन्हें हानिकारक ऑनलाइन मानदंडों और कानूनों को न्यायालयों और सरकार के समक्ष चुनौती देनी चाहिए |  

निष्कर्ष : डिजिटल अधिकारों की सुरक्षा क्यों जरूरी है ? 

आजकल के डिजिटल युग में डिजिटल अधिकार की सभी लोगो को बुनियादी अधिकार के रूप में आवश्यकता है |यदि इन डिजिटल अधिकारों में किसी प्रकार का आपराधिक अतिक्रमण होता है तो यह सीधा -सीधा व्यक्ति  के मानव अधिकारों पर हमला होता है |

आज हर व्यक्ति की डिजिटल अधिकारों तक आसान पहुंच बुनियादी आवश्यकता बन चुकी है | डीपफेक तकनीक के कारण डिजिटल अधिकारों का अतिक्रमण हो रहा है|अब इनकी सुरक्षा का समय आ गया है | 

डीपफेक सामिग्री विशेषकर वीडियो डिजिटल युग की सबसे बड़ी चुनौतियों में से एक है | यह विश्व भर में केवल तकनीकी खतरा नहीं है, बल्कि आम और खास  सभी मनुष्यों के मानव अधिकारों के लिए खतरा है | 

आर्टीफीसिअल इंटेलिजेंस निर्मित डीपफेक से न सिर्फ निजता के अधिकार का उलंघन होता है, बल्कि स्वास्थ्य के अधिकार जैसे अन्य अधिकारों का भी उलंघन होता है | 

निजता का अधिकार, पर्सनॅलिटी राइट्स, स्वास्थ्य का अधिकार आदि किसी भी लोकतंत्र की बुनियाद होते हैं | 

इस लिए आवश्यक है कि इस समस्या के निदान के लिए सरकार को आपराधिक न्याय व्यवस्था, तकनीकी विशेषज्ञ, समाज शास्त्रियों, तकनीकी कंपनियों तथा आम नागरिकों के सहयोग लिया जाए | 

यदि इस डीपफेक की समस्या का समाधान जल्द से जल्द नहीं किया गया और इसे अनियंत्रित छोड़ दिया गया तो यह भारत जैसे सशक्त लोकतंत्र तथा मानव अधिकारों के लिए गंभीर खतरा साबित हो सकती है | 

अक्सर पूछे जाने वाले प्रश्न (FAQ) :-  

प्रश्न : डीपफेक वीडियो क्या हैं ? 

उत्तर : डीपफेक वीडियो आर्टिफिशल इंटेलीजेंस (AI ) तकनीकी से बनाए गए नकली वीडियो होते हैं | लेकिन इन वीडियो को देखने के बाद इनके असली होने का आभास होता है |  

प्रश्न : डीपफेक वीडियो से निजता के अधिकार का उललंघन क्यों होता है ? 

उत्तर : क्यों कि डीपफेक वीडियो में किसी की छवि या आवाज का उसकी अनुमति के बिना उपयोग किया जाता है ? 

प्रश्न: पर्सनॅलिटी राइट्स क्या हैं ? 

उत्तर : सामान्य भाषा में पर्सनॅलिटी राइट्स से तात्पर्य किसी व्यक्ति का उसकी छवि ,आवाज ,नाम या  किसी अन्य रूप में उसकी पहचान  के सम्बन्ध में  उसका व्यवसायिक नियंत्रण है | 

प्रश्न : भारत में डीपफेक से निपटने के लिए कौन से क़ानून हैं ?

उत्तर : अभी इस समस्या से निपटने के लिए कोई विशेष क़ानून नहीं है | अभी आईटी एक्ट,2000  और बीएनएस, 2023  की धाराओं का उपयोग किया जाता है | 

प्रश्न : डीपफेक से बचाव के उपाय क्या हैं ? 

उत्तर: वर्तमान में कानूनी सुधार,फैक्ट चेक तकनीक, डिजिटल साक्षरता, सामाजिक जाग्रति और व्यक्तिगत सतर्कता डीपफेक से बचाव के अच्छे उपाय है | 

विशेष : दोस्तों टिप्णी और फॉलो करना न भूलें | आप बने रहिये हमारे साथ | 


भारत में महिला भ्रूण हत्या पर जस्टिस नागरत्ना की चिंता: एक मानवाधिकार विश्लेषण

प्रस्तावना   "लड़की का जन्म ही पहला अवरोध है; हमें यह सुनिश्चित करना चाहिए कि वह सिर्फ जीवित न रहे, बल्कि फल-फूल सके।”                 ...

डिजिटल अरेस्ट मानव अधिकारों पर हमला सम्पूर्ण जानकारी