सूचना र प्रविधिको युगमा तथ्य र काल्पनिकबीचको रेखा दिनानुदिन अस्पष्ट हुँदै गहिरहेको छ। डिजिटल रूपमा परिमार्जित सामग्रीको नयाँ पुस्ताको सम्भावित दुरुपयोगबारे अहिले गम्भीर चिन्ताहरू छन्। केही तस्बिरहरू, डिजिटल सञ्चार उपकरण र आर्टिफिसियल इन्टेलिजेन्स (एआई) को मिश्रणले धेरै घरमा कहर बर्साइदिन सक्छ जसको चपेटामा महिला विशेषत: किशोरी पर्छन्।
अहिले डीपफेक प्रविधिको उदयले विश्वभरि समाजमा नयाँ चुनौति ल्याइदिएको छ। प्रविधि द्रुत गतिमा अघि बढ्दै जाँदा डीपफेक डिजिटल विकासमा एउटा जटिल मामिला बनेको छ। नेपाल पनि यसको डिजिटल खतराबाट मुक्त छैन।
के हो डीपफेक र यसले कसरी काम गर्छ?
डीपफेक प्रविधिलाई सुरुमा विस्तार गर्न सामाजिक संजाल रेडिटले महत्त्वपूर्ण भूमिका खेलेको थियो। डिसेम्बर २०१७ मा डीपफेक ह्यान्डल भएको एक रेडिट प्रयोगकर्ताले वास्तविक अनुहारको प्रयोग गरेर अश्लील भिडिओ सिर्जना गर्न मिल्ने डिप लर्निङ प्रविधिको प्रयोगलाई अघि सारेका थिए। यसले डीपफेकको अवधारणालाई मूलाधारीकरण गर्यो। 'डीपफेक' एउटा वाक्यांश जसले 'डिप लर्निङ' र 'फेक' शब्दहरू संयोजन गर्दछ। डीपफेकले नक्कली फोटो, अडिओ, र भिडिओ सामग्री सिर्जना गर्छ जसले मानिसहरूलाई कहिल्यै बोलेको वा नगरेको कुरा गरिरहेको वा बोलिरहेको देखाउँदछ। यसका लागि आर्टिफिसियल इन्टेलिजेन्स (एआई) र डिप लर्निङ प्रविधिको प्रयोग गरिन्छ।
डिप लर्निङ भनेको कम्प्युटरलाई ठूलो सङ्ख्यामा उदाहरणहरू जस्तै कुनै व्यक्तिको धेरै तस्वीर र भिडिओहरू उपलब्ध गराएर सिक्न सिकाउनु जस्तै हो। जसरी मानव सिकाइ अवलोकन र अनुभवको माध्यमबाट हुन्छ, त्यसरी नै कम्प्युटरले यी उदाहरणहरू पहिचान वा निर्णय लिनमा ढाँचा र सहायता पहिचान गर्न प्रयोग गर्दछ।
डीपफेक सिर्जना गर्दा जेनेरेटिभ एडभर्सेरियल नेटवर्कहरू (गान्स) भनिने एक विशेष प्रकारको कम्प्युटर अल्गोरिदम प्रयोग गरिन्छ जसको दुई भागहरू छन्; एक भागले नक्कली सामग्री बनाउँछ र अर्कोले बनाएको सामग्री वास्तविक देखिन्छ कि देखिँदैन भनेर जाँच गर्दछ। यसको गुणस्तरको मापन तबसम्म गर्छ जबसम्म यो यथार्थवादी सामग्री बनाउनमा योग्य हुँदैन। यस प्रोग्रामले व्यक्तिको अनुहारबाट महत्त्वपूर्ण विशेषताहरू छान्छ, जस्तै व्यक्तिले बोल्दा चलाउने ओठका चालहरू टाउकोको हलचल, तिनीहरू कसरी सर्छन् वा कुरा गर्छन्, यी नै विशेषताहरूलाई समेटेर नक्कली सामग्रीलाई वास्तविक व्यक्ति जस्तो देखाउन तिनीहरूको अनुहार अरू कसैको शरीरमा राखिन्छ। डीपफेक बनाएपछि यसलाई थप वास्तविक देखाउन अतिरिक्त कदमहरू चाल्न सकिन्छ। जस्तै- अनुहार र शरीरको रङ मिलाउनु, अभिव्यक्तिको हुबहु मिलाउनु, वरिपरिको प्रकाशलाई अझ बढी ध्यान दिइन्छ।
डीपफेकका विशिष्ट उदाहरण
-एक व्यक्तिको अनुहार अर्कोको शरीरमा लागि अदला-बदली गर्नु
उदाहरण- २०२३, ६ नोभेम्बरमा भारतीय अभिनेत्री रश्मिका मन्दानाको एआई डीपफेक भिडिओ करिब तीन महिनाअघि भाइरल भएको थियो। भाइरल भिडिओमा रश्मिका जस्तै देखिने एउटी महिला कालो रंगको नुहाउने सुट लगाएर लिफ्टमा प्रवेश गरेको देखाइएको छ।
-भिडिओको मूल अडिओलाई नयाँ अडिओ ट्र्याकको साथ प्रतिस्थापन गर्ने र उसको ओठको चालसँग नयाँ ट्र्याकसँग मेल खाने (लिप सिङ्किङ) बनाउन फुटेज सम्पादन गर्ने
उदाहरण- लिप सिङ्किङ र भ्वाइस क्लोनिङ गर्न डीपफेकले मानिसहरूको आवाज पुनर्स्थापित गर्नसक्छ। मनोरञ्जनका लागि युट्युब र टिकटकमा क्रिस्टियानो रोनाल्डोले नेपाली गीत गाएको थुप्रै डीपफेक अडिओ/भिडिओ छ।
-पूर्ण शरीर एनिमेसन जसमा एक व्यक्तिको शरीरको छवि फरकको लागि साटासाट गर्नु र यसलाई मूल भिडिओमा रहेको व्यक्तिले त्यस्तै व्यवहार गरिरहेको जस्तो देखाउनु।
उदाहरण- सन् २०१७ मा बाराक ओबामाको एउटा डीपफेक भिडिओमा उनले जातिवादी कुरा बोलेको देखाइएको थियो। सोसल मिडियामा अविश्वास र विभाजन फैलाउन ओबामाको डीपफेक फुटेज प्रयोग गरिएको थियो र यो भिडिओलाई भाइरल बनाइएको थियो।
डीपफेकको प्रभाव र असर
होम सेक्युरिटी हिरोजको एक अध्ययनअनुसार सन् २०२४ सम्ममा इन्टरनेटमा डीपफेक भिडिओको कुल सङ्ख्या १० लाख पुग्नेछ जुन सन् २०१९ को तुलनामा पाँच सय पचास प्रतिशतले बढी हो। करिब ९० देखि ९५ प्रतिशत डीपफेक अश्लील छन् र दक्षिण कोरिया डीपफेक पोर्नबाट सबैभन्दा बढी प्रभावित मुलुक हो। महिला विशेषत: सेलिब्रेटीहरू डीपफेक पोर्नोग्राफीका प्रमुख शिकार छन्। धेरै प्रसिद्ध नेपाली अभिनेत्रीहरू पनि अश्लील डीपफेक भिडिओको शिकार भएका छन्। नेपाली समाजको रूढीवादी प्रकृतिका कारण परम्परागत मूल्य र नैतिकताको संरक्षणलाई प्रायः ठूलो महत्त्व दिइन्छ। विशेषत: जब व्यक्तिलाई लक्षित गरिन्छ डीपफेक पोर्नोग्राफीको वृद्धिले सामाजिक कलंक र पीडितलाई दोष दिन सक्दछ। स्थापित मापदण्डहरू पालना गर्न सामाजिक दबाबले पीडितहरूले सामना गर्ने कठिनाइहरूलाई अझ बढाउन सक्छ।
राजनीतिक लाभका लागि राजनीतिक प्रचार र नक्कली समाचार कुनै पनि हिसाबले नयाँ घटना होइन। राजनीतिक विरोधीहरूद्वारा झुट वा झुटो आक्षेप जस्ता गलत सूचनाहरू शताब्दीयौंदेखि रहँदै आएका छन्। मतदाताको भावना प्रभावित गर्न र प्रोपागान्डा प्रवर्द्धन गर्न ठूला नेपाली राजनीतिज्ञ र राजनीतिक दलहरूलाई लक्षित गरी सामाजिक संजाल पहिले नै डीपफेक सामग्रीले भरिएको छ। डीपफेकले प्रतिद्वन्द्वी राजनीतिक दलहरूबीच चुनावी युद्धमा नयाँ मोर्चा खोलेको छ। यसबाहेक, डीपफेकको उदयले डिजिटल फरेन्सिकको क्षेत्रमा गम्भीर चुनौतीहरू खडा गरेको छ, किनकि यसले मुद्दा र आपराधिक कार्यमा प्रयोग हुने डिजिटल प्रमाणको विश्वसनीयतामा सङ्कट निम्त्याउन सक्दछ।
नेपालको राजनीतिक परिवेश हेर्दा वर्तमान समयमा डीपफेकले राजनीतिक सङ्कट निम्त्याउन वा बढाउन महत्त्वपूर्ण भूमिका खेलेको छ। डीपफेकको बढ्दो जागरूकताले कसरी राजनीतिक प्रवचनलाई क्षति पुऱ्याइरहेको छ र राजनीतिक सन्दर्भमा उत्पादन गरिएका भिडिओहरूको वस्तुनिष्ठतालाई कमजोर पार्दैछ भन्ने दुवै शक्तिशाली उदाहरणहरू हुन्। यसबाहेक, डीपफेकले पत्रकारितामा तथ्य र कल्पना बीचको रेखालाई झन् लम्ब्याएको छ, जसले गर्दा समाचारको सत्यता पुष्टि गर्न अझ गाह्रो बनाउँछ र मिडिया संगठनहरूको अधिकारलाई पनि क्षति पुर्याउँछ।
डीपफेक टेक्नोलोजीको नकारात्मक पक्षहरू मात्र छैनन्। यसका सकारत्मक पक्षहरू पनि छन्। जस्तै अनुसन्धान र मनोरञ्जन जस्ता विभिन्न उद्देश्यका लागि यसलाई प्रयोग गरिन्छ। उदाहरणका लागि, चलचित्रहरूमा क्यामियो उपस्थितिका लागि मृतक अभिनेता वा अभिनेत्रीहरूलाई डिजिटल रूपमा पुनरुत्थान गर्ने, यथार्थवादी विशेष प्रभावहरू सिर्जना गर्ने, वा अभिनेताहरूलाई निर्बाध रूपमा दृश्यहरूमा एकीकृत गर्ने र साथसाथै टिभी कार्यक्रम वा अन्य सामग्रीलाई विभिन्न भाषाहरूमा डब गर्न पनि प्रयोग गर्न सकिन्छ।
डीपफेक टेक्नोलोजीलाई शैक्षिक सामग्रीमा ऐतिहासिक व्यक्तित्वहरूलाई जीवनमा ल्याउन प्रयोग गर्न सकिन्छ जसले विद्यार्थीहरूलाई ऐतिहासिक व्यक्तित्वहरूको भर्चुअल प्रतिनिधित्वसँग अन्तरक्रिया गर्न र विगतका घटनाहरूको गहिरो समझ प्राप्त गर्न अनुमति दिन्छ। चिकित्सा क्षेत्रमा डीपफेक टेक्नोलोजीको स्वास्थ्य सेवा व्यवसायीहरूलाई तालिम दिन र यथार्थवादी मेडिकल सिमुलेसनहरू सिर्जना गर्न प्रयोगहरू गरिन्छ। यद्यपि, यसको प्रयोगलाई सावधानीपूर्वक हेर्नु र सम्भावित नैतिक विचार र जोखिमहरूप्रति सचेत हुनु महत्त्वपूर्ण छ।
यदि विश्वासपूर्वक प्रयोग गरियो भने संस्कृति र कलामा प्रयोगका लागि धेरै सकारात्मक र रोचक सम्भावनाहरू छन्। कला र संस्कृति उद्योगहरूमा, डीपफेकहरू कलाको कामहरू सिर्जना गर्न, दर्शकहरूलाई संलग्न गर्न र आगन्तुकहरूलाई अभूतपूर्व व्यक्तिगत अनुभवहरू प्रदान गर्न एसको ठूलो महत्व छ।
डीपफेकहरू कसरी पहिचान गर्ने?
- डीपफेकहरू प्रामाणिक देखिनका लागि बनाइन्छ तर तिनीहरू पूर्ण रूपमा प्रामाणिक हुँदैनन्। यद्यपि डीपफेकहरू एआईको प्रविधिहरूद्वारा पनि पत्ता लगाउन सकिन्छ। त्यहाँ धेरै संकेतहरू पाउन सकिन्छ जुन हामीले आफैँले खोज्न सकिन्छ।
- पृष्ठभूमिमा भएका अनौठोपनहरू, असामान्य हाउभाउहरू वा अनुहारका असङ्गत विशेषताहरूमाथि नजर राख्नुहोस्। डीपफेकले अनुहारको अनौठो भाव वा आँखाको अनौठो चालहरू प्रदर्शन गर्न सक्छ जुन अडिओ वा वरपरका परिस्थितिहरूसँग मेल खाँदैन।
- कहिलेकाहीँआवाजमा त्रुटी हुनसक्छ वा अडिओ सधैँ ओठको चालसँग ठ्याक्कै मेल खाँदैन। भिडिओको वरपरको मूल्याङ्कन गर्नुहोस्।
- कुनै पनि विशिष्ट कलाकृतिहरू जुन ठाउँबाट बाहिर देखिन्छन्, अनुहार वा शरीर वरपरको कुनै पनि धमिलो किनारहरू नोट गर्नुहोस्।
- डीपफेकले भिडिओमा रहेका विभिन्न तत्त्वहरूको विश्लेषण गर्न, डीपफेक पत्ता लगाउन डिजाइन गरिएको सफ्टवेयर वा अनलाइन उपकरणहरू प्रयोग गर्नुहोस्। जस्तै फेकक्याचर, माइक्रोसफ्ट भिडिओ अथेन्टिकेटर टूल, डिपवेर स्क्यानर प्रयोग गरी पत्ता लगाउन सकिन्छ।
कानुन, नियम, मिडिया साक्षरता र प्राविधिक समाधान
डीपफेक सामग्रीबाट उत्पन्न खतरासँग लड्न विविध रणनीति आवश्यक छ। नेपालमा विशेष गरी टिकटकमा यसको प्रभाव एकदमै धेरै देखिकिएको थियो। डीपफेकहरू सम्बन्धी मुद्दाहरूलाई सम्बोधन गर्न ठूला टेक कम्पनीहरूले राखेका नियमहरूबारे छलफल गर्नु एउटा छुट्टै विषय हो तर पनी नेपाल सरकारले फेसबुक, युट्युब, ट्विटर र टिकटक जस्ता डिजिटल प्लेटफर्महरूसँग सहकार्य गरी अघि बढ्नु जरुरी छ।
डीपफेक सम्बन्धित मुद्दाहरूलाई प्रादेशिक वा स्थानीय कानुन र नीतिहरूमार्फत नभई मुख्यतया राष्ट्रिय स्तरमा सम्बोधन गर्नुपर्दछ। डीपफेक सामग्रीमा प्रायः प्रतिलिपि अधिकार भएको सामग्रीको अनधिकृत प्रयोग समावेश हुने भएकोले प्रतिलिपि अधिकार कानुनलाई अझ बलियो बनाउन सकिन्छ।
डीपफेक सामाग्रीहरू पत्ता लगाउन हामीले मेशिन लर्निङ मोडेलहरू र एल्गोरिदमहरूको विकास गर्न सकिन्छ जसले असामान्य हाउभाउलाई जाँच्दछन् र झुट वा सत्यता हो कि होइन भनेर औंल्याउन सक्दछ। यसलाई कम गर्ने उद्देश्यले अनुसन्धान र विकास पहलहरूका लागि सरकारले कोष उपलब्ध गराउन सक्छ जसमा शैक्षिक अनुसन्धान र टेक कम्पनिहरूसग साझेदारी गरी डीपफेक पत्ता लगाउने र रोकथाममा केन्द्रित टेक प्रतियोगिताहरूका आयोजना गर्न सक्दछ।
मिडिया सामग्रीको प्रामाणिकता प्रमाणित गर्नेको लागि वाटरमार्कहरू प्रयोग गर्न सकिन्छ जसले व्यक्तिहरूलाई भ्रामक सामग्री सिर्जना गर्न गाह्रो बनाउँछ र यदि हेरफेर गरिएको छ भने पनि मिडियाको सजिलै पहिचान र ट्र्याकिङ गर्न सकिन्छ। स्थानीय शैक्षिक संस्थाहरू, सामुदायिक केन्द्रहरू, र गैर-नाफामूलक संस्थाहरूले विद्यार्थीहरू र अशिक्षित व्यक्तिहरूलाई डीपफेकको प्रभाव पहिचान गर्न र कम गर्न उद्देश्यले डिजिटल साक्षरता कार्यक्रमहरू जस्तै डिजिटल उपकरणहरू, सफ्टवेयर र अनलाइन प्लेटफर्महरू कसरी प्रभावकारी रूपमा प्रयोग गर्ने, सम्भावित अनलाइन खतराहरू जस्तै फिशिङ, मालवेयर र तिनीहरूबाट आफूलाई कसरी बचाउने भन्ने ज्ञानको बारेमा जागरूकता प्रस्ताव गर्न सकिन्छ।
जसरी डीपफेक टेक्नोलोजी अगाडि बढ्दै गइरहेको छ, नेपाली समाजमा यसको प्रभाव बढ्दो रूपमा अस्पष्ट हुँदै गइरहेको छ। डीपफेक सामग्रीहरूबाट उत्पन्न गरेको गहिरो समस्याका जराहरूलाई सम्बोधन गर्न विधायकहरू बनाउने, शिक्षकहरू र समुदायद्वारा नीतिगत बहस गरी व्यापक रूपमा सहयोगी प्रयास आवश्यक छ। सचेतना बढाएर, कानुनी ढाँचालाई बलियो बनाएर र पीडितहरूलाई सहयोग गरेर हामीले देशको सामाजिक मूल्य र कल्याणको रक्षा गर्दै डिजिटल खतराको जटिलतालाई पार गर्न सक्दछौँ।
(लेखक त्रिविअन्तर्गत कलेजका सूचना प्रविधि विषयका सिनियर लेक्चरर हुन्।)