Connect with us

Hi, what are you looking for?

सुख-दुख

डीपफेक का शुरू हुआ नया जमाना, किनकी बहू-बेटियों की इज्ज़त कब नीलाम हो जाए, मुश्किल है कुछ कहना!

पुष्परंजन-

क्या 2024 चुनाव के समय डीपफेक के दुरूपयोग की चिंता प्रधानमंत्री मोदी को सताने लगी? शुक्रवार को पत्रकारों से दीवाली मिलन समारोह के दौरान अपनी चिंता साझा करते हुए पीएम मोदी ने कहा कि आप मुझे गरबा गीत गाते देख सकते हैं, जबकि मैने कभी ऐसा किया नहीं। डीपफेक वालों ने मुझे अन्य कई रूपों में प्रस्तुत कर रखा है। मोदी ने मोदी ने एक बड़ी चिंता को साझा किया है। अब इसमें पत्रकार केवल इतना ही कर सकते हैं कि ख़बरें प्रस्तुत करते समय डीपफेक का घ्यान रखें। हमारे देश के क़ानून ने केवल इतना इंतज़ाम कर लिया है कि जो लोग ऐसा करते पकड़े गये, उन्हें तीन साल की जेल और एक लाख रूपये तक जुर्माना ठोक सकता है। लेकिन क्या इतना उपाय काफी है?

Advertisement. Scroll to continue reading.

आर्टिफिशियल इंटेलीजेंस की मदद से कहीं का माल कहीं चिपका देना ‘एल्गोरिदम‘ कहा जाने लगा है। अमृत काल में इस कलाकारी को आर्टिफिशियल इंटेलीजेंस ने राकेट जैसी रफ़्तार दे दी है। 2014 में जब इसे इस्तेमाल में लाया गया, तब और आज के एल्गोरिदम में ज़मीन आसमान का अंतर आया है। प्रारंभ में, डीपफेक का उपयोग मुख्य रूप से हानिरहित और मनोरंजक उद्देश्यों के लिए किया जाता था, जैसे सेलिब्रिटी चेहरे की अदला-बदली करना, या फ़िर फिल्मों में चेहरे डालना। अब जैसे-जैसे तकनीक उन्नत हुई, वैसे-वैसे इसके दुरुपयोग की संभावना भी बढ़ती गई है। डीपफेक एल्गोरिदम अधिक परिष्कृत हो गए, जिससे अधिक साइबर कंटेंट में हेराफेरी करना सहज हो गया।

‘डीपफेक‘ शब्द ‘डीप लर्निंग‘( सीखने की गहन शैली) और ‘फेक‘ (फर्जीवाडे) के संयोजन से बना है। यह सब गहन शिक्षण तकनीकों वाली प्रौद्योगिकी विशेष रूप से जेनरेटिव एडवरसैरियल नेटवर्क (जीएएन) पर निर्भर करती है, जिसे पहली बार 2014 में अमेरिकी कंप्यूटर साइंटिस्ट इयान गुडफेलो और उनकी टीम द्वारा पेश किया गया था। देखने में यह तकनीक तो क्रांतिकारी लगी, मगर इससे सकारात्मक कम और दुर्भावनापूर्ण उपयोग की संभावना ज़्यादा बढ़ गईं। बाद के दिनों में अमेरिका-यूरोप में राजनीतिक दुष्प्रचार फैलाने के काम यह ज़्यादा आने लगा। जबतक आप सफाई दें कि यह फेक है, उससे पहले करोड़ों लोग सोशल मीडिया पर साझा कर चुके होते हैं। पीएम मोदी स्वयं इस तकनीकी दानव से प्रकंपित हो चुके हैं, यह बात दीवाली मिलन समारोह में उनके दर्शनार्थी पत्रकारों ने भी महसूस किया था।

Advertisement. Scroll to continue reading.

दिक्क़त क्या है कि हम देर से जगते हैं। सन दो हज़्ाार की शुरूआत में काल्पनिक महाकाव्य पर आधारित तीन एक्शन फिल्में बनी थीं। द लॉर्ड ऑफ द रिंग्स (2001), द फेलोशिप ऑफ द रिंग (2002), और द रिटर्न ऑफ द किंग (2003)। तीन खंडों में विभाजित यह ट्रियोलॉजी जे.आर.आर. टोलकिन द्वारा लिखित ‘द लॉर्ड ऑफ द रिंग्स‘ किताब पर आधारित थी, जिसने आर्टिफिशियल इंटेलीजेंस पर काम कर रहे लोगों को यह आइडिया दिया था कि आभासी दुनिया के ज़रिये फ़िल्म मेकिंग में बवाल काटा जा सकता है। 2014 आते-आते ‘डीपफेक‘ जब अवतरित हुआ, हॉलीवुड की फ़िल्म मेकिंग में क्रांति आ गई।
लेकिन डीपफेक ने जब अमेरिकी राजनीति में पिछले दरवाज़े से प्रवेश किया, तो सियायत हिलने लगी। एआई एल्गोरिदम द्वारा बनाए गए मनगढ़ंत वीडियो आज की तारीख में अमेरिकी राजनीति के सच को कल्पना के हथियार से धुंधला कर रहे हैं।

भारत की तरह अमेरिका में भी आम चुनाव 2024 में है, जो बाइडेन प्रशासन डीपफेक से उतना ही चिंतित है, जितना कि मोदी। पर सवाल यह भी है कि डीपफेक का दुरूपयोग क्या राष्ट्रीय सुरक्षा का विषय नहीं है? डीपफेक एक ऐसा दानवी हथियार है, जो पड़ोसी देशों तक से संबंध बिगाड़ सकता है। इसके हवाले से पूछा जा सकता है कि हमारे राष्ट्रीय सुरक्षा सलाहकार अजीत डोभाल किस तरह की रणनीति तैयार कर रहे हैं?

Advertisement. Scroll to continue reading.

डीपफेक ने सिंथेटिक मीडिया के स्वरूप को तेज़ी से बदल दिया, जो कई वर्षों से अस्तित्व में है। पिछले एक साल में इसे मिडजर्नी जैसे कई नए जेनरेटिव एआई टूल द्वारा टर्बोचार्ज किया गया है, जो डीपफेक को और भी सस्ता और आसान बनाता है। यह सटीक डेटा जैसा दिखता है. इस सफलता ने डीपफेक तकनीक को और अधिक डेवलप करने, साथ में उसे सर्वसाधारण को सुलभ करने का रास्ता दिखा चुका है।

सेंटर फॉर ह्यूमन टेक्नोलॉजी के सह-संस्थापक, एजा रस्किन ने खुद इस महीने की शुरुआत में अपने सोशल मीडिया प्लेटफॉर्म, ‘ट्रुथ सोशल‘ पर सीएनएन एंकर एंडरसन कूपर के सामने एक छेड़छाड़ किया हुआ वीडियो साझा किया था। उस वीडियो फुटेज में लाइव प्रेसिडेंशियल बहस में पूर्व राष्ट्रपति डोनाल्ड ट्रम्प अपने प्रतिद्वंद्वी जो बाइडेन से भिड़ रहे थे। यों, डीपफेक से बने उस वीडियो में दोनों के होठों की हरकत़ मेल नहीं खा रहे थे। मकसद यह बताना था कि 2024 के अमेरिकी चुनाव में डीपफेक रोका नहीं गया, तो नकली वीडियो रीयलपॉलिटिक की बैंड बजा देगा।

Advertisement. Scroll to continue reading.

यों, समाज पर डीपफेक तकनीक का नाकारात्मक प्रभाव बहुआयामी है। इससे व्यक्तिगत और व्यावसायिक प्रतिष्ठा के साथ-साथ श्रव्य-दृश्य साक्ष्यों पर हमारे भरोसे का भूस्खलन करता है। डीपफेक में दुष्प्रचार अभियानों को तेज़ करने की क्षमता होती है, क्योंकि उनका उपयोग फर्जी समाचार या प्रचार के टूल के तौर पर किया जा सकता है। डीपफेक तकनीक का उदय आज की तारीख़ में सुरक्षा के लिए भी भयावह चुनौती बन चुका है।
उदाहरण के लिए, डीपफेक से बनी सामग्री प्रौद्योगिकी चेहरे की पहचान प्रणाली को धोखा दे सकती है। सुरक्षा उपायों को दरकिनार कर सकती है, और संवेदनशील सूचनाओं से समझौता कर सकती है। डीपफेक व्यक्तियों का प्रतिरूपण भी कर सकते हैं। पहचान की पिछले दरवाज़े से चोरी या सोशल इंजीनियरिंग हमलों के अवसर पैदा कर सकते हैं। यह व्यक्तियों, सरकार को प्रभावित करने वाले संगठनों, और यहां तक कि राष्ट्रीय सुरक्षा के लिए भी बड़ा ख़तरा पैदा करता है।

डिपफेक एक ऐसा सिंथेटिक मीडिया है, जिसमें चित्र, वीडियो और ऑडियो शामिल हैं। जो आर्टिफिशियल इंटेलीजेंस द्वारा सृजित होते हैं, और जो ऐसे कंटेंट को चित्रित करते हैं, जो वास्तविकता में मौजूद है ही नहीं है। ऐसी घटनाएं, जो कभी घटित नहीं हुई हैं, उसे सच साबित करने की ताक़त डीपफेक में है। डीपफेक द्वारा उत्पन्न चुनौतियों से निपटने के लिए बहुआयामी तैयारियों की आवश्यकता है। डीपफेक की पहचान के लिए उससे भी अधिक परिष्कृत टूल विकसित करना साइबर संसार के लिए एक बड़ी चुनौती है, जो कम से कम भारत में विकसित नहीं हो पाया है। उसका दूसरा पक्ष क़ानूनी भी है। एक लाख का ज़ुर्माना और तीन साल की जेल जैसी धाराओं से फज़ीवाड़ा करने वाले डर जाएंगे, इसमें मुझे शक़ ही है।

Advertisement. Scroll to continue reading.

डीपफेक के शिकार लोग आत्म हत्या भी कर सकते हैं, शायद काऩून बनाने वालों को इसकी संज़ीदगी का अंदाज़ा नहीं होगा। जो कुछ क़ानूनी उपाय मोदी काल में दिये गये हैं, वो नाकाफ़ी और कागज़ी शेर जैसे ही हैं। डीपफेक तकनीक का 95 प्रतिशत दुरूपयोग पोर्न इंडस्ट्री में हो रहा है। जो लोग मशहूर हस्तियों की नंग-धड़ंग क्लिप डीपफेक के ज़रिये बना रहे हैं, उन्हें पांच डॉलर से लेकर 50 डॉलर तक का पेमेंट वीज़ा, मास्टर कार्ड या क्रिप्टोकरेंसी के माध्यम से दिया जा रहा है। लेकिन यह सब इतना डरावना है कि किनकी बहू-बेटियों की इज्ज़त कब नीलाम हो जाए, कहना मुश्किल है। बाद में उनके परिजन और जांच एजेंसियाँ सफाई देती रहें कि यह फेक है।

2017 में इस्तेमाल किया जाने लगा जब एक रेडिट मॉडरेटर ने ऐसे वीडियो पोस्ट करना शुरू किया, जो मौजूदा अश्लील वीडियो में मशहूर हस्तियों हूबहू दिखाने के लिए फेस-स्वैपिंग तकनीक का इस्तेमाल करते थे। पोर्न कंटेंट के अलावा, व्यापक रूप से प्रसारित पफर जैकेट में पोप फ्रांसिस की एक तस्वीर लोग देख चुके हैं। इस तरह के फेक कंटेंट में पूर्व राष्ट्रपति डोनाल्ड ट्रम्प पुलिस के साथ हाथापाई करते मिल जाएंगे। यही नहीं, फेसबुक के सीईओ मार्क जुकरबर्ग का भाषण देते हुए एक वीडियो भी शामिल है, जिसे देखकर वो ख़ुद हैरान हो गए थे। बात यहीं तक सीमित नहीं है, महारानी एलिजाबेथ का नृत्य करते हुए वीडियो भी लोगों ने देखा, जो साम्राज्ञी एलिज़ाबेथ के वास्तविक जीवन में कभी नहीं घटित हुई।

Advertisement. Scroll to continue reading.

डीपफेक दो अलग-अलग एआई डीप-लर्निंग एल्गोरिदम का उपयोग करके तैयार किए जाते हैं। उससे पहले की तैयारी में किसी विशिष्ट व्यक्ति की आवाज को ऑडियो डेटा फीड करके दोहराया जा सकता है। अक्सर, डीपफेक वीडियो उस व्यक्ति की आवाज की नकल करते हुए नए एआई-जनरेटेड ऑडियो के साथ बात करने वाले व्यक्ति के मौजूदा फुटेज को ओवरडब करके तैयार किए जाते हैं।

डीपफेक ज़्यादातर नापाक नीयत से जुड़े होते हैं, जिनमें गलत सूचना पैदा करना और राजनीतिक रूप से महत्वपूर्ण मामलों के बारे में भ्रम पैदा करना शामिल है। डीपफेक का दुरूपयोग अपने शिकार को अपमानित करने, डराने और परेशान करने के लिए किया जाता है। यह ब्लैकमेलिंग का एक ज़रिया भी है, जिससे नामचीन हस्तियों, राजनेताओं और कंपनियों के सीईओ तक को निशाने पर लिया जाता है। लेकिन छुटभैये आम नागरिकों को निशाना बनाने लगे हैं, यह भी देखने को मिल रहा है। सबसे बड़ी परेशानी पुलिस के रवैये को लेकर है, जो डीपफेक के शिकार लोगों के साथ संज़ीदगी से पेश नहीं आती।

Advertisement. Scroll to continue reading.

हालाँकि, डीपफेक के कुछ सकारात्मक उपयोग भी सामने आए हैं। उनमें से एक है सामाजिक मुद्दों के बारे में जागरूकता फैलाना। उदाहरण के लिए फुटबॉल के विश्व प्रसिद्ध खिलाड़ी डेविड बेकहम ने मलेरिया के बारे में जागरूकता बढ़ाने के लिए एक अभियान में भाग लेने की घटना है। डेविड बेकहम के लिए नौ अलग-अलग भाषाओं में डीपफेक वीडियो बनाए गए जिसमें उन्हें बोलते हुए दिखाया गया था। इससे संदेश की पहुंच व्यापक हो गई। कला जगत को भी डीपफेक तकनीक का सकारात्मक उपयोग करते हुए पाया गया है। सेंट पीटर्सबर्ग, फ्लोरिडा स्थित संग्रहालयों में कलाकार साल्वाडोर डाली का एक आदमकद वीडियो दिखाया गया, जिसमें उनके तथाकथित इंटरव्यू को फ़र्क़ करना मुश्किल था, कि वो ओरिजिनल आवाज़ में नहीं है.

शिक्षा और चिकित्सा दो अतिरिक्त क्षेत्र हैं जो डीपफेक तकनीक से लाभान्वित हो सकते हैं। अपनी क्लास में शिक्षक आकर्षक पाठ प्रस्तुत करने के लिए दुर्लभ भाषणों का डीपफेक के ज़रिये उपयोग कर सकते हैं। स्वास्थ्य के शोबे को भी देखा जाए तो डीपफेक तकनीक का उपयोग करके एमआरआई स्कैन पर ट्यूमर को पहचानने की एक्यूरेसी को बढ़ाया जा सकता है। इससे ट्यूमर का इलाज करना आसान हो जाता है। डीपफेक वास्तविक रोगियों के डेटा के बजाय संश्लेषित डेटा का उपयोग करके अनुसंधान करने की अनुमति देता है, जिससे शोधकर्ता गोपनीयता संबंधी चिंताओं से बच सकते हैं।

Advertisement. Scroll to continue reading.

लेखक पुष्प रंजन वरिष्ठ पत्रकार हैं.

Advertisement. Scroll to continue reading.
Click to comment

Leave a Reply

Your email address will not be published. Required fields are marked *

Advertisement

भड़ास तक खबर सूचनाएं जानकारियां मेल करें : [email protected]

भड़ास के वाट्सअप ग्रुप से जुड़ें- Bhadasi_Group_one

Advertisement

Latest 100 भड़ास

व्हाट्सअप पर भड़ास चैनल से जुड़ें : Bhadas_Channel

वाट्सअप के भड़ासी ग्रुप के सदस्य बनें- Bhadasi_Group

भड़ास की ताकत बनें, ऐसे करें भला- Donate

Advertisement