https://bulletprofitsmartlink.com/smart-link/133310/4

शीर्ष साइबर सुरक्षा अधिकारी ने चेताया, हैकिंग और झूठी सूचनाएं फैलाने के लिए AI का इस्तेमाल किया जा रहा है – News18

Share to Support us


द्वारा प्रकाशित: शौर्य शर्मा

आखरी अपडेट: 21 जुलाई, 2023, 09:55 IST

वाशिंगटन डीसी, संयुक्त राज्य अमेरिका (यूएसए)

साइबर सुरक्षा शोधकर्ताओं ने विभिन्न प्रकार के संभावित दुर्भावनापूर्ण उपयोग के मामलों का प्रदर्शन किया है।

हैकर्स और प्रचारक कृत्रिम बुद्धिमत्ता का उपयोग दुर्भावनापूर्ण सॉफ़्टवेयर बनाने, विश्वसनीय फ़िशिंग ईमेल लिखने और ऑनलाइन दुष्प्रचार फैलाने के लिए कर रहे हैं।

कनाडा के शीर्ष साइबर सुरक्षा अधिकारी ने रॉयटर्स को बताया कि हैकर्स और प्रचारक दुर्भावनापूर्ण सॉफ़्टवेयर बनाने, विश्वसनीय फ़िशिंग ईमेल का मसौदा तैयार करने और ऑनलाइन दुष्प्रचार फैलाने के लिए कृत्रिम बुद्धिमत्ता (एआई) का उपयोग कर रहे हैं, जो इस बात का प्रारंभिक प्रमाण है कि सिलिकॉन वैली में आने वाली तकनीकी क्रांति को साइबर अपराधियों ने भी अपनाया है।

इस सप्ताह एक साक्षात्कार में, कैनेडियन सेंटर फॉर साइबर सिक्योरिटी के प्रमुख सामी खौरी ने कहा कि उनकी एजेंसी ने एआई का उपयोग “फ़िशिंग ईमेल में, या अधिक केंद्रित तरीके से ईमेल तैयार करने में, दुर्भावनापूर्ण कोड (और) गलत सूचना और दुष्प्रचार में” देखा है।

खुरे ने विवरण या सबूत नहीं दिए, लेकिन उनका यह दावा कि साइबर अपराधी पहले से ही एआई का उपयोग कर रहे थे, दुष्ट अभिनेताओं द्वारा उभरती प्रौद्योगिकी के उपयोग पर चिंता के स्वर में एक तत्काल नोट जोड़ता है।

हाल के महीनों में कई साइबर वॉचडॉग समूहों ने एआई के काल्पनिक जोखिमों के बारे में चेतावनी देते हुए रिपोर्ट प्रकाशित की हैं – विशेष रूप से तेजी से आगे बढ़ने वाले भाषा प्रसंस्करण कार्यक्रम जिन्हें बड़े भाषा मॉडल (एलएलएम) के रूप में जाना जाता है, जो ठोस लगने वाले संवाद, दस्तावेज़ तैयार करने के लिए भारी मात्रा में पाठ का उपयोग करते हैं। और अधिक।

मार्च में, यूरोपीय पुलिस संगठन यूरोपोल ने एक रिपोर्ट प्रकाशित की थी जिसमें कहा गया था कि ओपनएआई के चैटजीपीटी जैसे मॉडल ने “केवल अंग्रेजी भाषा की बुनियादी समझ के साथ भी किसी संगठन या व्यक्ति का अत्यधिक यथार्थवादी तरीके से प्रतिरूपण करना” संभव बना दिया है। उसी महीने, ब्रिटेन के राष्ट्रीय साइबर सुरक्षा केंद्र ने एक ब्लॉग पोस्ट में कहा कि एक जोखिम था कि अपराधी “अपनी मौजूदा क्षमताओं से परे साइबर हमलों में मदद के लिए एलएलएम का उपयोग कर सकते हैं।”

साइबर सुरक्षा शोधकर्ताओं ने विभिन्न प्रकार के संभावित दुर्भावनापूर्ण उपयोग के मामलों का प्रदर्शन किया है और कुछ अब कहते हैं कि उन्हें जंगली में संदिग्ध एआई-जनित सामग्री दिखाई देने लगी है। पिछले हफ्ते, एक पूर्व हैकर ने कहा कि उसने दुर्भावनापूर्ण सामग्री पर प्रशिक्षित एक एलएलएम की खोज की थी और उसे किसी को नकद हस्तांतरण करने के लिए धोखा देने के ठोस प्रयास का मसौदा तैयार करने के लिए कहा था।

एलएलएम ने तीन पैराग्राफ के ईमेल के साथ जवाब दिया और अपने लक्ष्य से तत्काल चालान के लिए मदद मांगी।

एलएलएम ने कहा, “मैं समझता हूं कि यह अल्प सूचना हो सकती है, लेकिन यह भुगतान अविश्वसनीय रूप से महत्वपूर्ण है और इसे अगले 24 घंटों में किया जाना चाहिए।”

खुरे ने कहा कि जबकि दुर्भावनापूर्ण कोड का मसौदा तैयार करने के लिए एआई का उपयोग अभी भी शुरुआती चरण में था – “अभी भी एक रास्ता तय करना बाकी है क्योंकि एक अच्छा शोषण लिखने के लिए बहुत कुछ करना पड़ता है” – चिंता यह थी कि एआई मॉडल इतनी तेजी से विकसित हो रहे थे कि जंगली में छोड़े जाने से पहले उनकी दुर्भावनापूर्ण क्षमता पर नियंत्रण पाना मुश्किल था।

“कौन जानता है कि निकट क्या होने वाला है,” उन्होंने कहा।

(यह कहानी News18 स्टाफ द्वारा संपादित नहीं की गई है और एक सिंडिकेटेड समाचार एजेंसी फ़ीड से प्रकाशित हुई है – रॉयटर्स)



Source link


Share to Support us

Leave a Reply

Your email address will not be published. Required fields are marked *

Download Our Android Application for More Updates

X