परिचित आवाजों की नकल करके एआई फोन धोखेबाजी एक बड़ी समस्या - इसे कैसे अंजाम दिया जाता है

Emma Watson
Creative Common

इसका मतलब है कि लोगों को और अधिक सतर्क रहने की जरूरत होगी।

आपके जानने वाले लोगों की आवाज़ों की नकल करने के लिए एआई का उपयोग करके स्कैम कॉल का उपयोग लोगों को परेशान करने के लिए किया जा रहा है। ये कॉल जेनरेटिव एआई के रूप में जाने जाते हैं, जो उपयोगकर्ता के संकेतों के आधार पर टेक्स्ट, इमेज या वीडियो जैसे किसी अन्य मीडिया को बनाने में सक्षम सिस्टम को संदर्भित करता है। डीपफेक ने पिछले कुछ वर्षों में कई हाई-प्रोफाइल घटनाओं के साथ कुख्याति प्राप्त की है, जैसे कि फेसबुक और इंस्टाग्राम पर दिखाई देने वाले विचारोत्तेजक विज्ञापनों की एक श्रृंखला में अभिनेत्री एम्मा वॉटसन की छवि का उपयोग किया जा रहा है। 2022 का व्यापक रूप से साझा किया गया और तोड़-मरोड़कर दिखाया गया वीडियो भी था जिसमें यूक्रेनी राष्ट्रपति वलोडिमिर ज़ेलेंस्की यूक्रेनवासियों को हथियार डालने के लिए कहते दिखाई दिए। अब, किसी व्यक्ति की आवाज की यथार्थवादी प्रतिलिपि, ऑडियो डीपफेक बनाने की तकनीक तेजी से आम होती जा रही है।

किसी की आवाज़ की यथार्थवादी प्रतिलिपि बनाने के लिए आपको एल्गोरिदम को प्रशिक्षित करने के लिए डेटा की आवश्यकता होती है। इसका मतलब है कि आपके इच्छित लक्ष्य की आवाज़ की बहुत सारी ऑडियो रिकॉर्डिंग होना। व्यक्ति की आवाज़ के जितने अधिक उदाहरण आप एल्गोरिदम में डाल सकते हैं, अंतिम प्रतिलिपि उतनी ही बेहतर और अधिक विश्वसनीय होगी। हम में से कई लोग पहले से ही अपने दैनिक जीवन का विवरण इंटरनेट पर साझा करते हैं। इसका मतलब यह है कि किसी आवाज़ की यथार्थवादी प्रतिलिपि बनाने के लिए आवश्यक ऑडियो डेटा सोशल मीडिया पर आसानी से उपलब्ध हो सकता है। लेकिन एक बार कॉपी बाहर आ जाने पर क्या होता है? सबसे बुरा क्या हो सकता है? एक डीपफेक एल्गोरिदम डेटा रखने वाले किसी भी व्यक्ति को आप से जो चाहे कहलवाने में सक्षम कर सकता है। व्यवहार में, यह उतना ही सरल हो सकता है जितना कि कुछ लिखना और कंप्यूटर से उसे आपकी आवाज़ के अनुरूप ज़ोर से बोलना।

बड़ी चुनौतियां यह क्षमता ऑडियो गलत सूचना और दुष्प्रचार के प्रसार को बढ़ाने का जोखिम अपने साथ लाती है। इसका उपयोग अंतरराष्ट्रीय या राष्ट्रीय जनमत को प्रभावित करने की कोशिश के लिए किया जा सकता है, जैसा कि ज़ेलेंस्की के वीडियो के साथ देखा गया है। लेकिन इन तकनीकों की सर्वव्यापकता और उपलब्धता स्थानीय स्तर पर भी महत्वपूर्ण चुनौतियाँ पैदा करती है - विशेष रूप से एआई स्कैम कॉल्स की बढ़ती प्रवृत्ति में। कई लोगों को एक झूठी कॉल प्राप्त हुई होगी जो हमें बताती है, उदाहरण के लिए, कि हमारे कंप्यूटर से छेड़छाड़ की गई है और हमें तुरंत लॉग इन करना चाहिए, जिससे संभावित रूप से कॉल करने वाले को हमारे डेटा तक पहुंच मिल जाएगी। अक्सर यह पता लगाना बहुत आसान होता है कि यह एक धोखा है, खासकर तब जब कॉल करने वाला ऐसा अनुरोध कर रहा हो जो किसी वैध संगठन का कोई व्यक्ति नहीं कर रहा हो। हालाँकि, अब कल्पना करें कि फोन के दूसरी तरफ की आवाज़ सिर्फ किसी अजनबी की नहीं है, बल्कि बिल्कुल किसी दोस्त या प्रियजन की तरह लगती है। यह बदकिस्मत प्राप्तकर्ता के लिए जटिलता और घबराहट का एक बिल्कुल नया स्तर पेश करता है।

सीएनएन द्वारा रिपोर्ट की गई एक हालिया कहानी में एक घटना पर प्रकाश डाला गया है जहां एक मां को एक अज्ञात नंबर से कॉल आया। जब उसने फोन उठाया तो वह उसकी बेटी थी। कथित तौर पर बेटी का अपहरण कर लिया गया था और वह फिरौती की मांग के लिए अपनी मां को फोन कर रही थी। दरअसल, लड़की सुरक्षित और स्वस्थ थी। घोटालेबाजों ने उसकी आवाज का डीपफेक बनाया था। यह कोई अकेली घटना नहीं है, जिसमें कथित कार दुर्घटना सहित झूठी कहानियों की विविधताएं हैं, जहां दुर्घटना के बाद पीड़ित मदद के लिए अपने परिवार को पैसे के लिए बुलाता है। नई तकनीक का उपयोग कर पुरानी चाल यह अपने आप में कोई नया घोटाला नहीं है, आभासी अपहरण घोटाला शब्द कई वर्षों से प्रचलित है। इसके कई रूप हो सकते हैं लेकिन एक आम तरीका यह है कि पीड़ितों को अपने किसी प्रियजन को छुड़ाने के लिए फिरौती देने के लिए बरगलाया जाए, उन्हें लगता है कि उन्हें धमकी दी जा रही है। धोखाधड़ी का पता चलने से पहले पीड़ित को त्वरित फिरौती का भुगतान करने के लिए घोटालेबाज निर्विवाद अनुपालन स्थापित करने का प्रयास करता है।

हालाँकि, शक्तिशाली और उपलब्ध एआई प्रौद्योगिकियों के आगमन ने काफी हद तक वृद्धि कर दी है - और चीजों को और अधिक व्यक्तिगत बना दिया है। किसी गुमनाम कॉल करने वाले का फोन काट देना एक बात है, लेकिन आपके बच्चे या साथी की तरह लगने वाले किसी व्यक्ति के कॉल का जवाब देने के लिए आपके निर्णय पर वास्तविक विश्वास की आवश्यकता होती है। एक सॉफ्टवेयर है जिसका उपयोग डीपफेक की पहचान करने के लिए किया जा सकता है, और यह ऑडियो का एक दृश्य प्रतिनिधित्व तैयार करेगा जिसे स्पेक्ट्रोग्राम कहा जाता है। जब आप कॉल सुन रहे हों तो इसे वास्तविक व्यक्ति से अलग बताना असंभव लग सकता है, लेकिन जब स्पेक्ट्रोग्राम का साथ-साथ विश्लेषण किया जाता है तो आवाज़ों को अलग किया जा सकता है। कम से कम एक समूह ने डाउनलोड के लिए डिटेक्शन सॉफ़्टवेयर की पेशकश की है, हालांकि ऐसे समाधानों का उपयोग करने के लिए अभी भी कुछ तकनीकी ज्ञान की आवश्यकता हो सकती है।

अधिकांश लोग स्पेक्ट्रोग्राम इस्तेमाल करने में सक्षम नहीं होंगे, इसलिए जब आप निश्चित नहीं हैं कि आप जो सुन रहे हैं वह वास्तविक चीज़ है तो आप क्या कर सकते हैं? मीडिया के किसी भी अन्य रूप की तरह आप भी इससे दो चार हो सकते हैं: संशयवादी बनें। यदि आपको अचानक किसी प्रियजन का फोन आता है और वे आपसे पैसे मांगते हैं या ऐसे अनुरोध करते हैं जो आपको उनकी प्रवृत्ति के अनुकूल नहीं लगता है, तो उन्हें वापस कॉल करें या उन्हें एक टेक्स्ट भेजें यह पुष्टि करने के लिए कि आप वास्तव में उनसे बात कर रहे हैं। जैसे-जैसे एआई की क्षमताओं का विस्तार होगा, वास्तविकता और कल्पना के बीच की रेखाएं तेजी से धुंधली होती जाएंगी। और इसकी संभावना नहीं है कि हम प्रौद्योगिकी को वापस डिब्बे में डाल सकेंगे। इसका मतलब है कि लोगों को और अधिक सतर्क रहने की जरूरत होगी।

डिस्क्लेमर: प्रभासाक्षी ने इस ख़बर को संपादित नहीं किया है। यह ख़बर पीटीआई-भाषा की फीड से प्रकाशित की गयी है।


We're now on WhatsApp. Click to join.
All the updates here:

अन्य न्यूज़