G News 24 : इजरायल का हमास पर होने जा रहा है मशीन लर्निंग एल्गोरिदम डेटा पर आधारित "AI हमला"

 दुनिया का पहला "AI हमला", एक साथ 100 टारगेट होंगे तबाह...

इजरायल का हमास पर होने जा रहा है मशीन लर्निंग एल्गोरिदम डेटा पर आधारित "AI हमला"

दुनिया का पहला आर्टीफीशियल इंटेलीजेंस (AI) हमला इजरायली सेना गाजा पर करने जा रही है। इजरायली सेना पहली बार एआइ हमले से एक साथ 100 ठिकानों को तबाह करेगी। पिछले 7 अक्टूबर से ही इजरायल और हमास में भीषण जंग चल रही है। इजरायली सेना के हमले में अब तक गाजा में 17 हजार 700 से अधिक लोग मारे जा चुके हैं। जबकि कई हजार लोग घायल हुए हैं। इस बीच इजरायल ने दुनिया का पहला एआइ आधारित हमले का प्लान तैयार करके पूरे विश्व में खलबली मचा दी है। दुनिया का पहला एआइ हमला कितना घातक होगा, यह सोचकर ही लोगों के रोंगटे खड़े हो जा रहे हैं। 

अभी पिछले सप्ताह ही खबरें आईं  हैं कि इजरायली रक्षा बल (आईडीएफ) गाजा में हमास के खिलाफ जारी युद्ध में ‘हबसोरा’ नामक कृत्रिम मेधा (एआई) प्रणाली का इस्तेमाल कर रहे हैं। इस प्रणाली का इस्तेमाल बमबारी के लिए और निशाने चुनने, हमास के चरमपंथियों के ठिकानों का पता लगाने और पहले से ही मृतकों की संभावित संख्या का अनुमान लगाने के लिए कथित तौर पर किया गया है। इस तरह की एआई प्रणालियों का संघर्ष में उपयोग करने का क्या मायने है? इन प्रणालियों के सैन्य उपयोग के सामाजिक, राजनीतिक और नैतिक निहितार्थों पर मेरा शोध दिखाता है कि एआई पहले से ही युद्ध के चरित्र को बदल रहा है। सेनाएं अपने सैनिकों का प्रभाव बढ़ाने और उनके जीवन की रक्षा के लिए इन प्रणालियों का उपयोग करती हैं। एआई प्रणाली सैनिकों को अधिक कुशल बना सकती है और इससे युद्ध की गति और घातकता के बढ़ने की आशंका होती है।

एआई का युद्ध के सभी स्तरों पर प्रभाव पड़ रहा है, "खुफिया, निगरानी और टोही" गतिविधियों से लेकर "घातक हथियार प्रणालियों" के लिए इसका इस्तेमाल हो रहा है, जिसके जरिए मानव हस्तक्षेप के बिना निशाना बनाकर हमला किया जा सकता है। आइडीएफ की हबसोरा प्रणाली भी इसी तरह काम करती है। इन प्रणालियों में युद्ध के चरित्र को नया रूप देने की क्षमता है, जिससे संघर्ष में प्रवेश करना आसान हो जाता है। ये प्रणालियां संघर्ष बढ़ने की सूरत में किसी के इरादों का संकेत देने या किसी प्रतिद्वंद्वी के इरादों की व्याख्या करने को भी कठिन बना सकती हैं।

 एआइ कर सकता है ये खतरनाक काम

एआइ प्रणाली युद्ध के समय खतरनाक गलतफहमी पैदा करने या दुष्प्रचार में योगदान दे सकता है। यह प्रणाली मशीनों के सुझावों पर भरोसा करने की मानवीय प्रवृत्ति को बढ़ा सकती है। यह बात हबसोरा प्रणाली से सामने आई है। किसी एआई सिस्टम की सीमाएं स्पष्ट नहीं हो सकतीं। एआई द्वारा संचालित सबसे बुनियादी और महत्वपूर्ण परिवर्तनों में से एक परिवर्तन जो हमें देखने को मिल सकता है, वह है युद्ध की तीव्रता में वृद्धि। एआई का उपयोग इस आधार पर संभावित रूप से उचित है कि यह बड़ी मात्रा में डेटा की व्याख्या और संश्लेषण कर सकता है, इसे संसाधित कर सकता है और मानव अनुभूति से कहीं अधिक दर पर जानकारी दे सकता है। आईडीएफ के एक पूर्व प्रमुख ने कहा है कि मानव खुफिया विश्लेषक के जरिए हर साल गाजा में बमबारी के लिए 50 स्थानों को निशाना बनाया जा सकता है, लेकिन हबसोरा प्रणाली एक दिन में 100 लक्ष्य तैयार कर सकती है।

 मशीन लर्निंग एल्गोरिदम डेटा पर आधारित

प्रणाली मशीन लर्निंग एल्गोरिदम द्वारा प्रस्तुत संभावित तर्क के माध्यम से ऐसा करती है। मशीन लर्निंग एल्गोरिदम डेटा के माध्यम से सीखते हैं। वे डेटा के विशाल ढेर में पैटर्न खोजकर सीखते हैं और उनकी सफलता डेटा की गुणवत्ता और मात्रा पर निर्भर होती है। वे संभावनाओं के आधार पर सिफारिशें करते हैं। लिहाजा ये एआई प्रणालियां युद्ध के मैदान में अधिक सुविधाजनक तरीके से सेनाओं की मदद करती हैं। इससे सैनिकों के लिए जोखिम कम हो जाता है लेकिन एआई से मिली किसी जानकारी के गलत होने पर इसके विपरीत परिणाम भी हो सकते हैं। लिहाजा इन्हें इस्तेमाल करने के लिए अधिक सावधानी बरतने की जरूरत होती है।

Reactions

Post a Comment

0 Comments