रीयल टाइम डीपफेक एक खतरा है। अपनी सुरक्षा कैसे करें

आपने शायद इंटरनेट पर डीपफेक वीडियो देखे हैं जो अजीब या हास्यास्पद स्थितियों में प्रसिद्ध लोगों की प्रतिकृतियां इंजेक्ट करते हैं – उदाहरण के लिए, एक नकली टॉम क्रूज़ “औद्योगिक सफाई” कर रहा है, या वास्तव में मेटा प्रयास में, एक कृत्रिम मॉर्गन फ्रीमैन “युग” का प्रचार कर रहा है। सिंथेटिक वास्तविकता का।

अब किसी ऐसे व्यक्ति से फोन कॉल प्राप्त करने की कल्पना करें जो बिल्कुल आपके बच्चे की तरह लगता है, आपातकालीन सहायता के लिए अनुरोध कर रहा है। वही तकनीक, लेकिन किसी की हंसी नहीं।

साइबर सुरक्षा विशेषज्ञों का कहना है कि डीपफेक तकनीक उस बिंदु तक उन्नत हो गई है जहां वास्तविक समय में इसका उपयोग किया जा सकता है, जिससे धोखेबाज कॉल या वर्चुअल मीटिंग में किसी की आवाज, छवि और चाल-चलन को दोहराने में सक्षम हो जाते हैं। वे कहते हैं कि तकनीक भी व्यापक रूप से उपलब्ध है और उपयोग में अपेक्षाकृत आसान है। और यह हर समय बेहतर होता जा रहा है।

संघीय व्यापार आयोग ने चेतावनी दी, “कृत्रिम मीडिया’ बनाने वाले या अन्यथा सामग्री उत्पन्न करने वाले एआई उपकरणों के लिए धन्यवाद, जो हम देख रहे हैं उसका बढ़ता प्रतिशत प्रामाणिक नहीं है, और अंतर बताना अधिक कठिन हो रहा है।”

शोधकर्ताओं का कहना है कि रियल-टाइम डीपफेक की तकनीक एक दशक के बेहतर हिस्से के आसपास रही है। नया क्या है उन्हें बनाने के लिए उपलब्ध उपकरणों की श्रेणी।

जनरल में रिसर्च, इनोवेशन और एआई के उपाध्यक्ष एंड्रयू गार्डनर ने कहा, “हम जानते हैं कि हम एक समाज के रूप में इस खतरे के लिए तैयार नहीं हैं।” घोटाला और आपको इसे सत्यापित करने में तत्काल सहायता की आवश्यकता है।

नकली रिश्तेदारों को पैसे भेजने के लिए दादा-दादी को डराने के लिए रियल-टाइम डीपफेक का इस्तेमाल किया गया है, अंदर की जानकारी हासिल करने के लिए टेक कंपनियों में नौकरी हासिल करने, मतदाताओं को प्रभावित करने और अकेले पुरुषों और महिलाओं से पैसा वसूलने के लिए इस्तेमाल किया गया है। जालसाज किसी की आवाज की रिकॉर्डिंग की नकल कर सकते हैं जिसे ऑनलाइन पोस्ट किया गया है, फिर कैप्चर किए गए ऑडियो का उपयोग किसी पीड़ित के प्रियजन का प्रतिरूपण करने के लिए करें; एक 23 वर्षीय व्यक्ति पर इस तकनीक का उपयोग करके केवल तीन दिनों में न्यूफ़ाउंडलैंड में दादा-दादी को $200,000 से ठगने का आरोप है।

डीपफेक की इस नवीनतम पीढ़ी को बाहर निकालने के उपकरण भी उभर रहे हैं, लेकिन वे हमेशा प्रभावी नहीं होते हैं और हो सकता है कि वे आपकी पहुंच में न हों। इसलिए विशेषज्ञ खुद को और अपने प्रियजनों को नए प्रकार के ठगी से बचाने के लिए कुछ सरल कदम उठाने की सलाह देते हैं।

डीपफेक शब्द डीप लर्निंग तकनीक द्वारा संचालित एक सिमुलेशन के लिए शॉर्टहैंड है – कृत्रिम बुद्धिमत्ता जो डेटा के महासागरों को किसी मानव को दोहराने की कोशिश करने के लिए निगलती है, जैसे कि बातचीत करना (जैसे, चैटजीपीटी) या एक चित्रण बनाना (जैसे, डॉल-ई)। गार्डनर ने कहा कि इन उपकरणों को विकसित करना अभी भी एक महंगा और समय लेने वाला प्रस्ताव है, लेकिन इनका उपयोग करना तुलनात्मक रूप से त्वरित और आसान है।

नेगेव के बेन-गुरियन विश्वविद्यालय में एक एआई शोधकर्ता और डीपफेक विशेषज्ञ यिसरेल मिर्स्की ने कहा कि तकनीक उस बिंदु तक आगे बढ़ गई है जहां किसी व्यक्ति की एक तस्वीर से डीपफेक वीडियो बनाना संभव है, और एक व्यक्ति का “सभ्य” क्लोन केवल तीन या चार सेकंड के ऑडियो से आवाज। लेकिन गार्डनर ने कहा कि डीपफेक बनाने के लिए व्यापक रूप से उपलब्ध उपकरण कला की स्थिति से पीछे हैं; उन्हें लगभग पाँच मिनट के ऑडियो और एक से दो घंटे के वीडियो की आवश्यकता होती है।

Read also  एलोन मस्क का टेक्सास परिसर स्थानीय लोगों के लिए पर्यावरण संबंधी चिंताओं को उठाता है

भले ही, फेसबुक, इंस्टाग्राम और यूट्यूब जैसी साइटों के लिए धन्यवाद, जालसाजों को खोजने के लिए बहुत सारी छवियां और ऑडियो हैं।

मिर्स्की ने कहा कि एक संभावित लक्ष्य के बच्चों की पहचान करने के लिए फेसबुक पर एक हमलावर की कल्पना करना आसान है, बेटे को उसकी आवाज क्लोन करने के लिए पर्याप्त ऑडियो रिकॉर्ड करने के लिए बुला रहा है, फिर एक जाम से बाहर निकलने के लिए पैसे के लिए लक्ष्य की भीख मांगने के लिए बेटे के डीपफेक का उपयोग कर रहा है। किसी प्रकार।

तकनीक इतनी कुशल हो रही है, उन्होंने कहा, आप एक बुनियादी गेमिंग कंप्यूटर के साथ चेहरे या आवाज को क्लोन कर सकते हैं। और सॉफ्टवेयर “वास्तव में बिंदु और क्लिक” है, उन्होंने कहा, आसानी से ऑनलाइन उपलब्ध है और कुछ बुनियादी प्रोग्रामिंग के साथ विन्यास योग्य है।

रीयल-टाइम डीपफेक कितना प्रभावी हो सकता है, यह समझाने के लिए, लेक्सिसनेक्सिस रिस्क सॉल्यूशंस के गवर्नमेंट ग्रुप ने एक वीडियो साझा किया, जिसे जॉर्जिया स्टेट यूनिवर्सिटी में अपराध विज्ञान के प्रोफेसर डेविड मैमोन ने चल रहे एक स्पष्ट कैटफ़िशिंग घोटाले के डार्क वेब से पकड़ा था। इसमें एक वृद्ध पुरुष और एक युवा महिला के बीच ऑनलाइन चैट दिखाई गई, जो कनाडा में उस व्यक्ति से मिलने के लिए कर्ज मांग रही थी। लेकिन एक तीसरी खिड़की में, आप देख सकते हैं कि एक पुरुष वास्तव में एक महिला की आवाज में महिला के मुंह से निकल रहे शब्दों को कह रहा था – वह एक डीपफेक थी, और वह एक स्कैमर था।

जॉर्जिया इंस्टीट्यूट ऑफ टेक्नोलॉजी के मिर्स्की और वेन्के ली ने 2020 में प्रकाशित एक पेपर में कहा कि इस तकनीक को पुनर्सक्रियन के रूप में जाना जाता है। इसका उपयोग “मानहानि के कार्य करने, अविश्वसनीयता पैदा करने, गलत सूचना फैलाने और सबूतों के साथ छेड़छाड़ करने” के लिए भी किया जा सकता है। . एक अन्य दृष्टिकोण प्रतिस्थापन है, जहां लक्ष्य का चेहरा या शरीर किसी और पर रखा जाता है, जैसा कि बदला लेने वाले अश्लील वीडियो में होता है।

लेकिन कैसे, वास्तव में, धोखेबाज उपकरण का उपयोग कर रहे हैं, यह एक रहस्य बना हुआ है, गार्डनर ने कहा। ऐसा इसलिए है क्योंकि हम केवल यह जानते हैं कि वे क्या करते हुए पकड़े गए हैं।

लेक्सिसनेक्सिस रिस्क सॉल्यूशंस के गवर्नमेंट ग्रुप के मुख्य कार्यकारी हेवुड टैल्कोव ने कहा कि नई तकनीक कुछ सुरक्षा तकनीकों को दरकिनार कर सकती है जो कंपनियां पासवर्ड के बदले में तैनात कर रही हैं। उदाहरण के लिए, उन्होंने कैलिफोर्निया की दो-चरणीय ऑनलाइन पहचान प्रक्रिया की ओर इशारा किया, जिसमें उपयोगकर्ता दो चीजें अपलोड करते हैं: उनके ड्राइविंग लाइसेंस या आईडी कार्ड की एक तस्वीर, फिर एक ताज़ा तस्वीर। धोखेबाज़ कुछ डॉलर में एक नकली कैलिफ़ोर्निया आईडी ऑनलाइन खरीद सकते हैं, फिर डीपफेक सॉफ़्टवेयर का उपयोग करके सेल्फी के लिए एक मेल खाता चेहरा तैयार कर सकते हैं। “यह मक्खन के माध्यम से एक गर्म चाकू है,” उन्होंने कहा।

इसी तरह, टैल्कोव ने कहा कि वित्तीय कंपनियों को खातों को अनलॉक करने के लिए वॉयस-आइडेंटिफिकेशन टूल्स का इस्तेमाल बंद करने की जरूरत है। “अगर मैं घबराऊंगा [at] मेरा बैंक, मेरी आवाज ही मेरा पासवर्ड था। “सिर्फ केवल आवाज का उपयोग करने से, यह अब और काम नहीं करता है।” वही चेहरे की पहचान के लिए जाता है, उन्होंने कहा, यह कहते हुए कि प्रौद्योगिकी अपने उपयोगी जीवन के अंत में पहुंच को नियंत्रित करने के तरीके के रूप में थी।

Read also  क्या एआई लेगी नौकरियां? आईबीएम में उत्तर हां है क्योंकि यह 7800 की भर्ती को रोकता है

साइबर क्राइम सपोर्ट नेटवर्क, एक गैर-लाभकारी संस्था है जो व्यक्तियों और व्यवसायों को ऑनलाइन पीड़ित होने में मदद करती है, अक्सर रोमांस घोटालों के लक्ष्य के साथ काम करती है, और यह लोगों से आग्रह करती है कि वे स्कैमर्स को हटाने की कोशिश करने के लिए अपने सूटर्स के साथ वीडियो चैट करें। नेटवर्क के कार्यक्रम निदेशक, एली आर्मेसन ने कहा कि सिर्फ दो या तीन साल पहले, वे ग्राहकों को जमे हुए चित्रों की तरह आसान-से-स्थान की गड़बड़ी देखने के लिए कह सकते थे। लेकिन हाल के सप्ताहों में, उसने कहा, घोटाले के शिकार लोगों ने नेटवर्क से संपर्क किया है जिन्होंने कहा कि उन्होंने अपने संभावित प्रेमी के साथ 10 या 20 मिनट के लिए एक वीडियो चैट की थी, “और यह बिल्कुल वही व्यक्ति था जिसने मुझे फोटो में भेजा था। ”

उसने कहा, “पीड़ितों ने कहा, ‘सिर शरीर पर अजीब लग रहा था, इसलिए यह थोड़ा सा दिख रहा था।'” लेकिन लोगों के लिए लाल झंडे को नजरअंदाज करना असामान्य नहीं है, उसने कहा। “वे विश्वास करना चाहते हैं कि वीडियो वास्तविक है, इसलिए वे छोटी-मोटी विसंगतियों को नज़रअंदाज़ कर देंगे।”

(संयुक्त राज्य अमेरिका में रोमांस घोटालों के पीड़ितों ने पिछले साल $1.3 बिलियन के नुकसान की सूचना दी।)

रीयल-टाइम डीपफेक व्यवसायों के लिए भी एक खतरनाक नए खतरे का प्रतिनिधित्व करते हैं। मिर्स्की ने कहा, बहुत सी कंपनियां कर्मचारियों को अजनबियों द्वारा फ़िशिंग हमलों को पहचानने के लिए प्रशिक्षित कर रही हैं, लेकिन कोई भी वास्तव में किसी सहकर्मी या बॉस की क्लोन आवाज के साथ डीपफेक से कॉल करने की तैयारी नहीं कर रहा है।

“लोग प्रामाणिकता के साथ परिचितता को भ्रमित करेंगे,” उन्होंने कहा। “और परिणामस्वरूप, लोग इन हमलों के लिए गिर रहे हैं।”

अपनी सुरक्षा कैसे करें

टैल्कोव ने डीपफेक से बचाव के लिए एक सरल और मुश्किल तरीका पेश किया जो परिवार के सदस्य का रूप धारण करता है: एक गुप्त कोड शब्द रखें जिसे परिवार का हर सदस्य जानता हो, लेकिन इसका अनुमान अपराधी नहीं लगा सकते। अगर कोई आपकी बेटी, पोता या भतीजा होने का दावा करता है, तो टैल्कोव ने कहा, कोड वर्ड मांगने से असली प्रियजनों को नकली से अलग किया जा सकता है।

“हर परिवार को अब एक कोड वर्ड की जरूरत है,” उन्होंने कहा।

उन्होंने कहा, कुछ सरल और आसानी से यादगार चुनें जिसे लिखने की आवश्यकता नहीं है (और फेसबुक या इंस्टाग्राम पर पोस्ट नहीं किया गया है), फिर इसे अपने परिवार की स्मृति में ड्रिल करें। “आपको यह सुनिश्चित करने की आवश्यकता है कि वे जानते हैं और अभ्यास करते हैं, अभ्यास करते हैं, अभ्यास करते हैं,” टैल्कोव ने कहा।

गार्डनर ने कोड वर्ड की भी वकालत की। उन्होंने कहा, “मुझे लगता है कि डीपफेक घोटालों के खिलाफ बचाव में तैयारी बहुत आगे जाती है”।

आर्मेसन ने कहा कि उसका नेटवर्क अभी भी लोगों को वीडियो कॉल पर कुछ सुराग देखने के लिए कहता है, जिसमें उनके प्रेमी का पलक झपकना बहुत अधिक या बहुत कम है, भौहें हैं जो चेहरे या बालों को गलत जगह पर फिट नहीं करती हैं, और त्वचा जो मेल नहीं खाती है उनकी उम्र। यदि व्यक्ति ने चश्मा पहन रखा है, तो जांचें कि क्या वे जो प्रतिबिंब देते हैं वह यथार्थवादी है, नेटवर्क कहता है – “डीपफेक अक्सर प्रकाश की प्राकृतिक भौतिकी का पूरी तरह से प्रतिनिधित्व करने में विफल होते हैं।”

Read also  Google गर्भपात की गोपनीयता की रक्षा करने के अपने पोस्ट-रो वादे को विफल कर रहा है

वह लोगों से ये सरल परीक्षण देने का भी आग्रह करती है: वीडियो कॉल में दूसरे व्यक्ति को अपना सिर घुमाने और अपने चेहरे के सामने हाथ रखने के लिए कहें। उसने कहा, उन युद्धाभ्यासों का खुलासा हो सकता है, क्योंकि डीपफेक को अक्सर उन्हें वास्तविक रूप से करने के लिए प्रशिक्षित नहीं किया जाता है।

फिर भी, उसने स्वीकार किया, “हम सिर्फ रक्षा खेल रहे हैं।” धोखेबाज “हमेशा हमसे आगे रहने वाले हैं,” उन्होंने कहा कि चोर को प्रकट करने वाली खामियों को दूर करते हुए, उन्होंने कहा। “यह क्रुद्ध करनेवाला है।”

अंत में, उसने कहा, डीपफेक धूम्रपान करने का सबसे विश्वसनीय तरीका व्यक्तिगत रूप से बैठक पर जोर देना हो सकता है। “हमें इसके बारे में वास्तव में अनुरूप होना है। हम सिर्फ तकनीक पर भरोसा नहीं कर सकते।

ऐसे सॉफ़्टवेयर उपकरण हैं जो वैध ऑडियो और वीडियो को नकली से अलग करने के प्रयास में स्वचालित रूप से AI-जनित ग्लिट्स और पैटर्न की तलाश करते हैं। लेकिन मिर्स्की ने कहा “यह संभावित रूप से एक हारने वाला खेल है” क्योंकि जैसे-जैसे तकनीक में सुधार होता है, वैसे-वैसे गप्पी संकेत जो नकली को धोखा देते थे, चले जाएंगे।

बेन-गुरियन विश्वविद्यालय में मिर्स्की और उनकी टीम ने एक अलग दृष्टिकोण विकसित किया है, जिसे डी-कैप्चा कहा जाता है, जो उसी सिद्धांत पर काम करता है जिसका उपयोग कुछ वेबसाइटें बॉट्स को ऑनलाइन फॉर्म जमा करने से रोकने के लिए करती हैं। एक डी-कैप्चा प्रणाली एक परीक्षण प्रस्तुत करती है जिसे वर्तमान रीयल-टाइम डीपफेक को फ्लमॉक्स करने के लिए डिज़ाइन किया गया है – उदाहरण के लिए, कॉल करने वालों को गुनगुनाने, हंसने, गाने या बस अपना गला साफ़ करने के लिए कहना।

सिस्टम, जिसका अभी तक व्यावसायीकरण नहीं हुआ है, संवेदनशील वर्चुअल मीटिंग्स में भाग लेने वाले मेहमानों या संदिग्ध कॉलर्स को सत्यापित करने वाले ऐप को प्रमाणित करने के लिए एक वेटिंग रूम का रूप ले सकता है। वास्तव में, मिर्स्की ने कहा, “हम ऐसे ऐप्स विकसित कर सकते हैं जो इन संदिग्ध कॉलों को पकड़ने और कनेक्ट होने से पहले उन्हें जांचने का प्रयास कर सकते हैं।”

गार्डनर ने एक दूसरे को उम्मीद भरी टिप्पणी दी। उन्होंने कहा कि लोग एआई और चैटजीपीटी जैसे ऐप के साथ अब जो अनुभव कर रहे हैं, उससे लोगों को यह सवाल करने में आसानी हुई है कि क्या असली है और क्या नकली, और जो वे देख रहे हैं उस पर अधिक गंभीर रूप से देखने के लिए।

“तथ्य यह है कि लोग इन एआई वार्तालापों को एक-एक करके अपने दम पर कर रहे हैं, मुझे लगता है, मदद कर रहा है,” उन्होंने कहा।

द टाइम्स यूटिलिटी जर्नलिज्म टीम के बारे में

यह लेख द टाइम्स की यूटिलिटी जर्नलिज्म टीम का है। हमारा मिशन समस्याओं को हल करने, सवालों के जवाब देने और निर्णय लेने में मदद करने वाली जानकारी प्रकाशित करके दक्षिणी कैलिफ़ोर्नियावासियों के जीवन के लिए आवश्यक होना है। हम लॉस एंजिल्स में और उसके आसपास दर्शकों की सेवा करते हैं – जिसमें वर्तमान टाइम्स सब्सक्राइबर और विविध समुदाय शामिल हैं, जिनकी ऐतिहासिक रूप से हमारे कवरेज से जरूरतें पूरी नहीं हुई हैं।

हम आपके और आपके समुदाय के लिए कैसे उपयोगी हो सकते हैं? ईमेल उपयोगिता (at) latimes.com या हमारे पत्रकारों में से एक: मैट बॉलिंगर, जॉन हेली, एडा त्सेंग, जेसिका रॉय और करेन गार्सिया।