नई दिल्‍ली: हम आपको एक ऐसे खतरे के बारे में बताना चाहते हैं, जो दुनिया के लिए आतंकवाद से भी बड़ी चुनौती बन सकता है और ये खतरा है, Deep Fake वीडियो का. यानी एक ऐसी तकनीक, जिसकी मदद से कुछ ही घंटों में किसी का भी नकली वीडियो बना कर उसे बदनाम किया जा सकता है. कुछ लोग तो इन Fake Videos का आनंद ले रहे हैं लेकिन बहुत से लोग ऐसे हैं, जिन्हें इस वीडियो ने चिंता में डाल दिया है.

सोशल मीडिया पर ऐसे कई वीडियो वायरल हैं. इनमें टॉम क्रूज का भी वीडियो है. आप भी शायद टॉम क्रूज के Fake Videos को देखकर कंफ्यूज हो गए हों और शायद आपने भी इन वीडियोज को असली मान लिया हो. लेकिन ये वीडियो असली नहीं हैं. टॉम क्रूज ने इस तरह का कोई वीडियो नहीं बनाया है और यही वजह है कि दुनियाभर में अब इस टेक्‍नोलॉजी की चर्चा हो रही है.

क्‍या है Deep Fake टेक्‍नोलॉजी

ये Deep Fake टेक्‍नोलॉजी  है, जिसका अर्थ है- Artificial Intelligence की मदद से असली तस्वीरों या वीडियोज से छेड़छाड़ कर उन्हें किसी खास मकसद के लिए फेक तस्वीरों और वीडियोज में बदल देना और ये सब इतनी सफाई से किया जाता है कि असली और नकली तस्वीरों, वीडियोज में अंतर करना भी मुश्किल हो जाता है. इसलिए इसे Deep Fake तकनीक कहते हैं.  आप कह सकते हैं कि ये तकनीक न्‍यूक्लियर बम की तरह ही बहुत ख़तरनाक है क्योंकि, अगर इतनी सफ़ाई से टॉम क्रूज के फेक वीडियो बनाए जा सकते हैं तो फिर किसी का भी ऐसा वीडियो बनाया जा सकता है.

हो सकता है कि कल किसी देश के प्रधानमंत्री का इस्तीफ़ा देते हुए Deep Fake Video बनाया जाए और उस वीडियो पर लोग यकीन भी कर लें और ऐसा किसी के साथ भी हो सकता है.  बड़े-बड़े सेलिब्रिटीज के साथ भी हो सकता है, किसी देश के प्रधानमंत्री और मंत्री के साथ हो सकता है और बड़े उद्योगपति और आम लोगों के साथ भी ये सब हो सकता है. अब आप खुद सोचिए कि ये तकनीक कितनी ख़तरनाक है.

इस तरह के Deep Fake वीडियोज को अक्सर सोशल मीडिया की मदद से फैलाया जाता है और इसमें सबसे आगे है फेसबुक, लेकिन फेसबुक के संस्थापक मार्क जकरबर्ग खुद Deep Fake का शिकार हो चुके हैं. 

वीडियो असली है या नकली पहचानना मुश्किल

कुछ समय पहले उनका एक फेक वीडियो वायरल हुआ था और तब भी लोगों के लिए ये समझना मुश्किल हो गया था कि ये वीडियो असली है या नकली.  यही नहीं, अमेरिका के पूर्व राष्ट्रपति बराक ओबामा के साथ भी ऐसा हो चुका है.

ये तकनीक कैसे दुनिया के लिए आतंकवाद से भी बड़ी चुनौती बन सकती है.  इसे समझने के लिए अब आप कुछ आंकड़े देखिए-

पूरी दुनिया में हर रोज सोशल मीडिया पर 180 करोड़ तस्वीरें अपलोड की जाती हैं यानी एक हफ्ते में इंटरनेट पर जितनी तस्वीरें अपलोड होती हैं. वो दुनिया की इस समय की आबादी के बराबर है.

इनमें से करोड़ों तस्वीरें सेल्‍फी के रूप में होती हैं और इनमें महिलाओं की तस्वीरों की संख्या पुरुषों के मुकाबले बहुत ज़्यादा हैं. अगर आप महिला हैं, तो हो सकता है आज आपने भी अपनी कोई न कोई तस्वीर सोशल मीडिया पर पोस्‍ट की होगी लेकिन क्या आपको ज़रा सा भी अंदाज़ा है कि आपकी ये तस्वीरें अगर अपराधियों के हाथ लग जाएं तो वो इनके साथ क्या कर सकते हैं?

स्‍टडी में सामने आई ये बातें 

साइबर अपराधी इन तस्वीरों के साथ वो कर सकते हैं, जिसकी आपने या आपके परिवार ने कल्पना तक नहीं की होगी.  इन तस्वीरों को बड़ी आसानी से डीप फेक टेक्‍नोलॉजी की मदद से अश्लील तस्वीरों में बदला जा सकता है और इसे आप 2020 में हुई एक स्‍टडी के ज़रिए समझ सकते हैं.

ये स्‍टडी इंटरनेट पर मौजूद फेक कंटेंट का पता लगाने वाली एक कम्पनी ने की थी, जिसके मुताबिक़ सोशल मीडिया पर डाली गई 1 लाख महिलाओं की तस्वीरों को इस तकनीक की मदद से अश्लील तस्वीरों में बदला गया है.

दुनियाभर में 466 करोड़ लोग इंटरनेट का इस्तेमाल करते हैं और उनमें से 260 करोड़ लोग किसी न किसी सॉफ्टवेयर से जुड़े हैं.  यानी आप कह सकते हैं कि ये तकनीक असल में एक खतरनाक मिसाइल की तरह है और इसके निशाने पर वो लोग हैं, जो इंटरनेट का इस्तेमाल करते हैं.

कैसे काम करती है ये टेक्‍नोलॉजी 

Deep Fake Technology कैसे काम करती है, अब आप ये समझिए-

असल में Artificial Intelligence की मदद से चेहरे में कुछ बदलाव करके एक नकली वीडियो बनाया जाता है और कई बार आवाज़ को ओरिजनल वीडियो से कॉपी करके नकली वीडियो में डाल दिया जाता है. इस तरह का वीडियो असली वीडियो की तरह ही लगता है. छेड़छाड़ करके बनाए गए ऐसे वीडियो को आप Morph Video, doctored Video या Synthetic Media भी कह सकते हैं. 

एक ज़माना था, जब ऑडियो और वीडियो को प्रामाणिक सच माना जाता था. लेकिन अब धीरे-धीरे ऑडियो और वीडियो ये विश्वास खो रहे हैं. छेड़छाड़ करके बनाए गए ऐसे ऑडियो, वीडियो और तस्वीरों को आप दुनिया के लिए बड़ा ख़तरा भी मान सकते हैं.

इसे आप एक उदाहरण से समझिए. चुनाव में किसी नेता की छवि खराब करनी है तो उसका कोई आपत्तिजनक डीप फेक वीडियो  सोशल मीडिया पर अपलोड कर दिया जाए.  जब तक इसकी सच्चाई लोगों को पता चलेगी वीडियो लाखों लोगों तक पहुंच चुका होगा और नेता की छवि खराब हो चुकी होगी और शायद वो इसकी वजह से चुनाव भी हार जाए.

कैसे बच सकते हैं?

अब हम आपको ये बताते हैं कि आप कैसे Deep Fake Videos से बच सकते हैं. 

Deep Fake तस्वीरों के मुकाबले वीडियोज को पहचानना आसान होता है और ऐसा आप दो चीजों की मदद से कर सकते हैं. उदाहरण के लिए जब किसी व्यक्ति का Deep Fake वीडियो बनाया जाता है तो उसमें उस व्यक्ति और बैकग्राउंड के बीच ज्यादा अंतर नहीं होता. ऐसा वीडियो की असली दिखाने के लिए किया जाता है, लेकिन अगर आप ये पहचान गए कि वीडियो में सिर्फ चेहरे पर फोकस किया जा रहा है और बैकग्राउंड  को जानबूझकर छिपाया गया है तो आप फेक वीडियो को पहचान सकते हैं.

दूसरा तरीका ये है कि आने वाले समय में ऐसे कैमरे विकसित किए जाएं, जो तस्वीरें खींचकर उसे एक तरह के डिजिटल सिग्‍नेचर में बदल दें और इसे इनक्रिप्‍टेड कर दें.  इससे अपराधी इनका आसानी से इस्तेमाल नहीं कर पाएंगे.

खुद को Deep Fake से बचाने का एक आसान तरीका ये भी है कि अपनी कम से कम तस्वीरें Social Media पर डालें और जितना हो सके चेहरे के क्‍लोज अप वाली तस्वीरें डालने से बचें. 

चौथा तरीका ये है कि Deep Fake को पहचानने वाले आर्टिफिशियल इंटेलिजेंस को तेज़ी से विकसित किया जाए और इनकी पहुंच आम लोगों तक सुनिश्चित हो. ताकि लोग फेक न्‍यूज़ और फेक वीडियोज का शिकार होने से बच सकें. 

यहां ये भी याद रखें कि जिन तस्वीरों के साथ बहुत आसानी से छेड़छाड़ हो जाती है उनमें से ज्यादातर सेल्‍फीज होती हैं.

सेल्‍फी में चेहरा साफ-साफ दिखाई देता है और आम तौर पर इसका रेजॉल्‍यूशन भी अच्छा होता है. इसलिए सेल्‍फी से लिए गए चेहरे को किसी अश्लील तस्वीर के साथ जोड़ना आसान हो जाता है. यानी सोशल मीडिया पर चेहरे का क्‍लोज अप डालना बहुत खतरनाक है. इसके अलावा अगर आप अलग अलग एंगल से सेल्‍फी लेने के शौकीन हैं, तो आप अपनी ये आदत भी छोड़ दीजिए क्योंकि, आपके चेहरे के ये अलग अलग एंगल्‍स Deep Fake तैयार करने वाले Artificial Intelligence का काम बहुत आसान कर देते हैं. इससे ऐसे वीडियो तैयार किए जा सकते हैं, जिन्हें नकली मानना बहुत मुश्किल होता है क्योंकि, इसमें आपके चेहरे के लगभग सभी एंगल मौजूद होते हैं.

वर्ष 2019 में आई एक रिपोर्ट के मुताबिक,  सोशल मीडिया पर ऐसे 14 हज़ार वीडियोज की पहचान की गई थी, जिन्हें डीप फेक सॉफ्टवेयर की मदद से तैयार किया गया था और अहम बात ये है कि इनमें से 96 प्रतिशत वीडियो Pornography से जुड़े थे और इनमें महिलाओं की गलत तस्वीरें इस्तेमाल हुई थीं. 

Deep Fake शब्‍द का इस्‍तेमाल क्‍यों?

इस तरह के वीडियोज के लिए Deep Fake शब्द क्यों इस्तेमाल होता है. अब आप ये समझिए-

वर्ष 2017 में Reddit नाम की एक वेबसाइट पर Deep Fake नाम का एक यूजर था और इस यूजर ने तब चेहरे बदलने की तकनीक Pornography के लिए इस्तेमाल करनी शुरू की थी. यहीं से Deep Fake शब्द दुनिया के सामने आया और इस तरह के वीडियोज को Deep Fake Videos कहा जाने लगा.

तकनीक का एक दूसरा पक्ष भी 

हालांकि इस तकनीक का एक दूसरा पक्ष भी है और वो ये कि अगर इसका सही इस्तेमाल किया जाए तो इस टेक्‍नोलॉजी की मदद से काफ़ी कुछ बदलाव लाया जा सकता है.

पिछले कुछ दिनों से My Heritage नाम का एक सॉफ्टवेयर  काफ़ी चर्चा में है. इस सॉफ्टवेयर की मदद से आप किसी भी तस्वीर को 10 सेकंड के वीडियो में बदल सकते हैं और इसकी ख़ास बात ये है कि इस सॉफ्टवेयर  से आप पुरानी तस्वीरों में भी जान डाल सकते हैं. 

शहीद भगत सिंह, स्वामी विवेकानंद, लोकमान्य तिलक, हिन्दी के प्रसिद्ध लेखक मुंशी प्रेमचंद, लाल बहादुर शास्त्री और फ्रांस  के प्रसिद्ध शासक नेपोलियन बोनापार्ट की तस्वीरों को इस सॉफ्टवेयर की मदद से वीडियो में बदला गया है. इन वीडियोज को देखकर आप जानेंगे कि Artificial Intelligence का इस्तेमाल अगर सही दिशा में किया जाए तो ये तकनीक हमारे काफी काम आ सकती है. 





Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here