AI In War : AI के इस्तेमाल से एक साथ 100 ठिकानों को निशाना बना सकता है इजरायल, क्या यही है युद्ध का भविष्य?
Use Of Artificial Intelligence In War: युद्ध में AI का इस्तेमाल विनाशकारी साबित हो रहा है. जिस तरह से इजरायल ने हमास के खिलाफ गाजा में इसका इस्तेमाल किया है वह युद्ध के भविष्य की ओर इशारा कर रहा है.
Use Of Artificial Intelligence By Israel In War: टेक्नोलॉजी का हाथ पकड़कर तेजी से विकसित होती दुनिया के साथ आर्टिफिशियल इंटेलिजेंस मानवीय जीवन का सबसे बड़ा साथी बनता जा रहा है. पर क्या हो अगर एआई का इस्तेमाल लोग एक दूसरे के खिलाफ विनाश को अंजाम देने के लिए करने लगें?
पिछले सप्ताह खबरें आईं कि इजरायली रक्षा बल (आईडीएफ) गाजा में हमास के खिलाफ जारी युद्ध में ‘हबसोरा’ नाम की एआई टेक्नोलॉजी का इस्तेमाल कर रहा है. इस टेक्नोलॉजी का इस्तेमाल बमबारी, निशाना चुनने, हमास के चरमपंथियों के ठिकानों का पता लगाने और पहले से ही मृतकों की संभावित संख्या का अनुमान लगाने के लिए कथित तौर पर किया गया है.
इसे देखते हुए कहा जा सकता है कि भविष्य में होने वाले युद्ध का यही भविष्य है. मानव की सहायता के लिए विकसित की गई आर्टिफिशियल इंटेलिजेंस, उसी के विनाश का कारण बन सकती है. न्यूज एजेंसी PTI की एक रिपोर्ट के मुताबिक इस तरह की एआई प्रणालियों का संघर्ष में उपयोग करने का क्या मायने है? इन प्रणालियों के सैन्य उपयोग के सामाजिक, राजनीतिक और नैतिक निहितार्थों पर शोध दिखाता है कि एआई पहले से ही युद्ध के चरित्र को बदल रहा है.
AI के इस्तेमाल से और घातक हो रहे युद्ध
रिपोर्ट के मुताबिक सेनाएं अपने सैनिकों का प्रभाव बढ़ाने और उनके जीवन की रक्षा के लिए इन प्रणालियों का उपयोग करती हैं. एआई प्रणाली सैनिकों को अधिक कुशल बना सकती है और इससे युद्ध की गति और घातकता के बढ़ने की आशंका है. एआई का युद्ध के सभी स्तरों पर प्रभाव पड़ रहा है, 'खुफिया, निगरानी और टोही' गतिविधियों से लेकर 'घातक हथियार प्रणालियों' के लिए इसका इस्तेमाल हो रहा है, जिसके जरिए मानव हस्तक्षेप के बिना निशाना बनाकर हमला किया जा सकता है. आईडीएफ की हबसोरा प्रणाली भी इसी तरह काम करती है.
दुष्प्रचार में भी योगदान दे सकता है एआई
इन प्रणालियों में युद्ध के चरित्र को नया रूप देने की क्षमता है, जिससे संघर्ष में प्रवेश करना आसान हो जाता है. ये तकनीक संघर्ष बढ़ने की सूरत में किसी के इरादों का संकेत देने या किसी प्रतिद्वंद्वी के इरादों की व्याख्या करने को भी कठिन बना सकती हैं. एआई प्रणाली युद्ध के समय खतरनाक गलतफहमी पैदा करने या दुष्प्रचार में योगदान दे सकता है. यह प्रणाली मशीनों के सुझावों पर भरोसा करने की मानवीय प्रवृत्ति को बढ़ा सकती है. यह बात हबसोरा प्रणाली से सामने आई है. किसी एआई सिस्टम की सीमाएं स्पष्ट नहीं हो सकतीं.
एक दिन में सौ से अधिक लक्ष्य साध सकती है एआई तकनीक
एआई द्वारा संचालित सबसे बुनियादी और महत्वपूर्ण परिवर्तनों में से एक परिवर्तन जो हमें देखने को मिल सकता है, वह है युद्ध की तीव्रता में वृद्धि. एआई का उपयोग इस आधार पर संभावित रूप से उचित है कि यह बड़ी मात्रा में डेटा की व्याख्या और संश्लेषण कर सकता है, इसे संसाधित कर सकता है और मानव अनुभूति से कहीं अधिक दर पर जानकारी दे सकता है. आईडीएफ के एक पूर्व प्रमुख ने कहा है कि मानव खुफिया विश्लेषक के जरिए हर साल गाजा में बमबारी के लिए 50 स्थानों को निशाना बनाया जा सकता है, लेकिन हबसोरा प्रणाली एक दिन में 100 लक्ष्य तैयार कर सकती है. प्रणाली मशीन लर्निंग एल्गोरिदम द्वारा प्रस्तुत संभावित तर्क के माध्यम से ऐसा करती है.
मशीन लर्निंग एल्गोरिदम पर आधारित है आर्टिफिशियल इंटेलिजेंस टेक्नोलॉजी
मशीन लर्निंग एल्गोरिदम डेटा के माध्यम से सीखते हैं. वे डेटा के विशाल ढेर में पैटर्न खोजकर सीखते हैं और उनकी सफलता डेटा की गुणवत्ता और मात्रा पर निर्भर होती है. वे संभावनाओं के आधार पर सिफारिशें करते हैं. लिहाजा ये एआई प्रणालियां युद्ध के मैदान में अधिक सुविधाजनक तरीके से सेनाओं की मदद करती हैं. इससे सैनिकों के लिए जोखिम कम हो जाता है लेकिन एआई से मिली किसी जानकारी के गलत होने पर इसके विपरीत परिणाम भी हो सकते हैं. लिहाजा इन्हें इस्तेमाल करने के लिए अधिक सावधानी बरतने की जरूरत होती है.
(एजेंसी इनपुट के साथ)
ये भी पढ़ें:AI की मदद लेकर खेला जा रहा ये गंदा खेल, 2 करोड़ से ज्यादा लोग इसमें लिप्त