हम सब तकनीक की दुनिया में रह रहे हैं. आने वाला समय में हमारा जीवन और भी ज्यादा टेक्नोलॉजी बेस्ड होने वाला है और इसमें भी आर्टिफिशियल इंटेलिजेंस  पर आधारित ऐप से लेकर मशीनों की भरमार होने वाली है.


मानव विकास की राह में तकनीक की बेहद महत्वपूर्ण भूमिका रही है. इसकी बदौलत आज हम उस दौर में पहुंच गए हैं, जहां बिना ऐप और ऑटोमेडेट मशीन के जीवन की कल्पना करना काफी मुश्किल है. इसमें आर्टिफिशियल इंटेलिजेंस यानी AI का दखल लगातार बढ़ते जा रहा है. एक तरफ तो आर्टिफिशियल इंटेलिजेंस से हम विकास की नई इबारत लिखने को तैयार है, तो दूसरी ओर AI से जुड़े खतरे और चुनौतियां भी सामने आ रहे हैं. पिछले कुछ महीनों से आर्टिफिशियल इंटेलिजेंस से जुड़े खतरों को लेकर जोर-शोर से चर्चा हो रही है. 


AI के खतरों को लेकर चेतावनी


बार-बार दुनियाभर से तमाम एक्सपर्ट AI के खतरों को लेकर आगाह कर रहे हैं. अब तो विशेषज्ञों ने इतना तक कह डाला है कि आर्टिफिशियल इंटेलिजेंस मानव जाति तक के लिए खतरा बन सकता है. इन विशेषज्ञों को कहना है कि आर्टिफिशियल इंटेलिजेंस हमारे सामने विलुप्ति का खतरा पैदा कर सकता है. AI से जुड़े खतरों के प्रति आगाह करने वालों में ओपन एआई और Google डीपमाइंड के बड़े अधिकारी तक शामिल हैं.


सेंटर फॉर एआई सेफ्टी के वेबपेज पर स्टेटमेंट पब्लिश हुआ है. एक पंक्ति के इस बयान में कहा गया है कि


"महामारियों और परमाणु युद्ध जैसे अन्य सामाजिक-स्तर के खतरों के साथ-साथ AI के कारण विलुप्ति के खतरे को कम करना एक वैश्विक प्राथमिकता होनी चाहिए."


मानव जाति तक के लिए खतरा


इस बयान पर 350 से ज्यादा अधिकारियों, शोधकर्ताओं और इंजीनियरों ने हस्ताक्षर किए हैं. सोचने वाली बात ये है कि जो लोग भी आर्टिफिशियल इंटेलिजेंस के खतरे को लेकर अब आवाज मुखर कर रहे हैं, वे ऐसे एक्सपर्ट या शोधकर्ता हैं, जिनकी भूमिका आर्टिफिशियल इंटेलिजेंस के विकास में भी रही है. चैटजीपीटी-निर्माता ओपनएआई के मुख्य कार्यकारी अधिकारी सैम ऑल्टमैन, गूगल डीपमाइंड के मुख्य कार्यकारी अधिकारी डेमिस हासाबिस और एंथ्रोपिक के डारियो अमोदेई तक ने इस बयान का समर्थन किया है. सुपर इंटेलिजेंट एआई के जोखिमों के बारे में पहले भी चेतावनी जारी कर चुके डॉ. जेफ्री हिंटन और मॉन्ट्रियल विश्वविद्यालय में कंप्यूटर विज्ञान के प्रोफेसर योशुआ बेंगियो ने भी इस मुहिम का समर्थन किया है.


महामारी और परमाणु युद्ध जैसा खतरा


AI के क्षेत्र में शानदार काम के लिए डॉ. जेफ्री हिंटन, प्रोफेसर बेंगियो और न्यूयॉर्क यूनिवर्सिटी के प्रोफेसर यान को दुनिया में एआई के गॉडफादर के रूप में जाना जाता है. इन तीनों ने संयुक्त रूप से 2018 ट्यूरिंग अवार्ड जीता था, जो कंप्यूटर विज्ञान में उत्कृष्ट योगदान से जुड़ा बड़ा सम्मान है.अब आप समझ सकते हैं कि आर्टिफिशियल इंटेलिजेंस भविष्य में कितना बड़ा खतरा साबित हो सकता है क्योंकि जिन लोगों ने इसके विकास में सबसे महत्वपूर्ण भूमिका निभाई है, अब वही लोग इसके खतरे को लेकर दुनिया को आगाह कर रहे हैं.


जिस तरह से महामारी और परमाणु युद्ध को मानव जाति के लिए खतरा माना जाता है, इन विशेषज्ञों ने AI को भी बिल्कुल वैसा ही खतरा बताने की कोशिश की है. सेंटर फॉर एआई सेफ्टी ने  भविष्य में AI से कितना ज्यादा घातक हो सकता है, इसके लिए कुछ उदाहरण से भी समझाया है. एआई को हथियार बनाया जा सकता है. उदाहरण के लिए, ड्रग-डिस्कवरी टूल्स का इस्तेमाल रासायनिक हथियार बनाने के लिए किया जा सकता है.


एआई से गलत सूचना पैदा कर समाज में अस्थिरता लाई जा सकती है. इसका एक बड़ा खतरा है कि इससे सामूहिक निर्णय लेने की क्षमता कमजोर हो सकती है. एक खतरा ये भी है कि आर्टिफिशियल इंटेलिजेंस की ताकत दुनिया के चुनिंदा लोगों तक ही सीमित रह जाए. इसका खतरा ये हो सकता है कि ऐसे में दुनिया के चंद लोग जो भी चाहें, अपने तरीके से अपने विचारों को दमनकारी सेंशरशिप के जरिए थोप सकते हैं. कहीं ऐसा न हो कि भविष्य में मनुष्य AI पर पूरी तरह से निर्भर हो जाए. कहने का मतलब है कि हम बिना मशीन या रोबोट के कुछ भी करने में खुद को बेहद ही असमर्थ पाने लगें. 


रिसर्च और प्रयोग पर हो नियंत्रण


ये सब कुछ ऐसे खतरे हैं, जिनको लेकर बार-बार एक्सपर्ट आगाह करने की कोशिश कर रहे हैं. इससे पहले भी AI को लेकर कुछ ऐसी ही आशंका मार्च-अप्रैल में भी जताई गई थी. दुनिया के कई जाने माने बिजनेसमैन और टेक्नोक्रैट ने कहा था कि आर्टिफिशियल इंटेलिजेंस  समाज और मानवता के लिए गहरा जोखिम पैदा कर सकता है. एआई समाज के लिए खतरनाक हो सकता है. इन लोगों में टेस्ला और ट्विटर के मालिक  एलन मस्क और प्रौद्योगिकी के मामले में दुनिया के अग्रणी कंपनी एप्पल के को-फाउंडर स्टीव वोजनियाक भी शामिल हैं.


मार्च के आखिर में 'फ्यूचर ऑफ लाइफ इंस्टीट्यूट' की वेबसाइट पर  AI से भविष्य में होने वाले खतरे को लेकर आगाह करने से जुड़े ओपन लेटर को डाला गया था. उस लेटर पर मस्क के अलावा, स्काइप के को-फाउंडर Jaan Tallinn, पिनटेरेस्ट के को-फाउंडर के साथ-साथ कई यूनिवर्सिटियों के प्रोफेसरों ने भी दस्तखत किए थे. इस ओपन लेटर के बाद AI के भविष्य में विनाशकारी होने को लेकर बहस तेज हो गई थी.


GPT-4 के बाद के बाद बहस तेज़


एलन मस्क खुद अपनी कई कंपनियों के जरिए AI के विकास में भारी मात्रा में निवेश कर रहे हैं, इसके बावजूद उन्होंने कहा था कि AI सभ्यता विनाश यानी सिविलाइजेशन डिस्ट्रक्शन का कारण बन सकता है. आर्टिफिशियल इंटेलिजेंस को लेकर दुनिया में तमाम रिसर्च हो रहे हैं. दरअसल AI को लेकर हो रहे रिसर्च में जितनी सावधानी बरती जानी चाहिए, वैसा हो नहीं रहा है.  ChatGPT के आने के बाद ये चर्चा और भी प्रासंगिक बन गया है. चैटजीपीटी के नए वर्जन   GPT-4 के बाद  दुनिया के जाने माने टेक्नोक्रैट तेजी से विकसित हो रहे इस तरह के मॉड्यूल्स को इंसानी अस्तित्व के लिए खतरा मानने लगे हैं. ओपन लेटर के जरिए मार्च में  सभी एआई प्रयोगशालाओं से अपील की है कि GPT-4 से अधिक शक्तिशाली एआई सिस्टम के प्रशिक्षण को कम से कम 6 महीने के लिए तुरंत रोक दी जाए.



इंसानी बुद्धि का विकल्प नहीं बनना चाहिए AI


चिंता की वजह ये है कि एआई सिस्टम अब इंसानी बुद्धि जैसा प्रतिस्पर्धी बन गया है. ये मानव अस्तित्व के इतिहास में बड़े बदलाव का प्रतिनिधित्व कर रहा है. विशेषज्ञों का मानना है कि AI से जुड़े जितने भी रिसर्च हो रहे हैं, उनके लिए एक योजना बनाई जानी चाहिए. साथ ही उसे सही तरीके से मैनेज भी किया जाना चाहिए. हो ये रहा है कि एआई के इस्तेमाल में इन बातों का ध्यान नहीं रखा जा रहा है. हम कह सकते हैं कि डिजिटल दिमाग के विकास में आउट-ऑफ-कंट्रोल रेस देखने को मिल रहा है. ये इतना खतरनाक साबित हो सकता है कि इस रिसर्च में लगे लोगों को भी इसका अंदाजा नहीं है.


तकनीक के विकास में कोई समस्या नहीं है, लेकिन आर्टिफिशियल इंटेलिजेंस  ने ये सोचने को मजबूर कर दिया है कि क्या इंसानी दिमाग का विकल्प भी इस धरती पर हो सकता है. इस धरती का या पृथ्वी ग्रह का सबसे नायाब चीज इंसान का अस्तित्व और उसके भीतर मौजूद बुद्धि है. यही विशेषता मनुष्य को इस ग्रह के बाकी सजीव चीजों से अनोखा बनाती है. इसके विपरीत आर्टिफिशियल इंटेलिजेंस एक प्रकार से पैदा की गई बुद्धि है, जिसका प्राकृतिक सोच से कोई मतलब नहीं है.मनुष्य ने ही अपने चिंतन करने की ताकत है, सोचने की शक्ति है और बुद्धिमता के जरिए इस आर्टिफिशियल इंटेलिजेंस का विकास किया है और इस पर आगे भी रिसर्च जारी है.


तकनीक का विकास हो, मशीनों का विकास हो,, लेकिन इन सबके बीच ये जरूरी है कि इंसानी बुद्धि का कोई विकल्प नहीं बनना चाहिए. इसको देखते हुए ये सवाल बेहद प्रासंगिक हो जाता है कि क्या आर्टिफिशियल इंटेलिजेंस को उस हद तक विकसित करना सही है, जो इंसानी बुद्धि को भी पीछे छोड़ दे.


अगर हम आर्टिफिशियल इंटेलिजेंस का विकास कर ही रहे हैं, तो ये भी देखना होगा कि जो भी प्रयोग या रिसर्च इस दिशा में हो रहे हैं, वे सब कितने नियंत्रित हैं. अगर AI से जुड़ी ताकत पर किसी ग़लत और सनकी आदमी का कब्जा हो जाए, तो फिर उसके दुष्परिणाम पर भी सोचने की जरूरत है.


प्रोपेगैंडा और झूठ की हो सकती है भरमार


आर्टिफिशियल इंटेलिजेंस के जरिए जानकारी का प्रवाह एक बेहद अहम मसला है. अगर यही जानकारी का प्रवाह प्रोपेगैंडा और झूठ से भरा हो तो फिर उसके भी दूरगामी असर हो सकते हैं. GPT-4 मॉड्यूल से ये सवाल और भी प्रासंगिक हो गया है. आर्टिफिशियल इंटेलिजेंस से ऑटोमेशन को बढ़ावा मिलेगा. हर जगह इंसानों की जगह मशीनों से काम चलने की संभावना बढ़ते जाएगी. लोगों के लिए नौकरियों कम होने लगेंगी और मशीनें नौकरियों से जुड़े काम को अंजाम देने लगेंगे. उदाहरण के तौर पर AI से तैयार किए गए बिल्कुल इंसानों जैसी शक्ल-सूरत वाले रोबोट से न्यूज़ पढ़वाया जा रहा है.


चैटजीपीटी के जरिए किसी भी मुद्दे पर आप पलक झपकते जानकारी हासिल करने में तो सक्षम हो जा रहे हैं, लेकिन इसकी गारंटी कौन लेगा, कि वो जानकारी ग़लत या भ्रामक नहीं है. एक तरह से आर्टिफिशियल इंटेलिजेंस से पढ़ाई-लिखाई का भी महत्व कम होने का डर है. एआई के जरिए ऐसा डिजिटल दिमाग विकसित हो रहा है, जिसमें मानवीय दिमाग की तरह बुद्धिमता तो हो सकती है, संवेदना नहीं.  आर्टिफिशियल इंटेलिजेंस  का एक खतरा ये भी है कि इसके जरिए अमानवीय दिमाग विकसित करने जैसा काम हो रहा है.


इंसानी सोच और समाज के लिए खतरनाक


उदाहरण के तौर पर हम किसी विषय पर कुछ लिखना चाहते हैं. अगर कोई शख्स इसे खुद से लिखेगा, तो उसके बारे में अच्छा या बुरा हर पहलू पर गौर करते हुए अपनी राय जाहिर करेगा. यही काम अगर एआई के जरिए बने किसी सिस्टम जैसे  ChatGPT के माध्यम से किया जाएगा, तो फिर एआई के तहत फीड की गई जानकारी को ही वो शख्स अटल सत्य मान लेगा. इतना ही नहीं इस तरह की जानकारी पलक झपकते ही दुनिया के कोने-कोने में पहुंचाई जा सकती है. इस तरह के सिस्टम में कोई अगर किसी विषय पर झूठे और प्रोपगैंडा भरे तथ्यों को फीड कर देता है, तो फिर ये किसी भी सूरत में इंसानी सोच और समाज के लिए खतरनाक ही होगा.


साइबर सिक्योरिटी से भी जुड़ा है मसला


उसी प्रकार से हम देख रहे हैं कि एआई के प्रयोग से बने कई ऐप और सॉफ्टवेयर आज के वक्त में किसी भी तस्वीर के साथ कुछ भी बदलाव कर दे रहे हैं. अगर इसका सदुपयोग हो, तो फिर तो कोई समस्या नहीं है. लेकिन अगर दुरुपयोग हुआ तो वो कई लोगों को नुकसान भी पहुंचा सकता है. बानगी के तौर पर किसी के भी चेहरे को किसी के भी शरीर पर चिपका दिया जा सकता है और एआई इसको इतनी बारीकी से अंजाम दे रहा है कि वो बिल्कुल वास्तविक लगेगा. भविष्य में इसका बड़े पैमाने पर इस्तेमाल अपराध को अंजाम देने और लोगों की छवि को खराब करने में भी हो सकता है.


इंसान का विकल्प बनने का खतरा


एआई के जरिए भविष्य में मशीनों की एक ऐसी फौज तैयार हो जाएगी, जिससे इंसानी अस्तित्व पर ही खतरा आ सकता है. सबसे बड़ा डर तो यही है कि जो भी इस क्षेत्र में निजी तौर से काम कर रहे हैं, अगर वो अपने आप को इतना मजबूत समझने लगेंगे कि उन्हें न तो सरकार का डर रह जाएगा और न ही कायदे-कानून का क्योंकि उनके पास एआई  से बने मशीनों की फौज होगी. अगर किसी महत्वाकांक्षी आदमी के हाथ इस तरह के मॉड्यूल्स लग जाएं, जो अपनी इच्छाओं को पूरा करने के लिए कुछ भी करने को तैयार हो जाए, तो ये समाज और मानवता के लिए बहुत बड़े हद तक परेशानी का सबब बन सकता है.


IQ या इंटेलिजेंस कोशेंट से ज्यादा ताकतवर अगर आर्टिफिशियल  इंटेलिजेंस हो जाए, तो फिर ये सचमुच समाज और मानवता के लिए खतरनाक बन सकता है. समाज की बेहतरी के लिए तकनीक का इस्तेमाल होना चाहिए. लेकिन इस प्रक्रिया में ये कतई नहीं होना चाहिए कि कोई मशीन इंसानी दिमाग से भी ज्यादा तेज़ और दक्ष होकर अनियंत्रित तरीके से इंसानी सोच को ही बरगलाने या गुमराह करने का काम करे. या फिर इंसानी सोच को ही बौना साबित कर दे.


वैश्विक स्तर पर बने ठोस रणनीति


इन खतरों को देखते हुए ये बेहद प्रासंगिक हो गया है कि इस दिशा में वैश्विक स्तर पर कोई रणनीति बननी चाहिए. एआई को विकसित करने की जिम्मेदारी ऐसे लोगों पर पूरी तरह से नहीं छोड़ा जा सकता है, जो लोकतांत्रिक व्यवस्था में अनिर्वाचित हों, और जिनकी कोई जवाबदेही तय न हो. इसका साफ मतलब है कि AI के खतरों से निपटने के लिए सरकारी स्तर पर सामूहिक प्रयास को बढ़ावा देने की जरूरत है. एआई के विकास और इस्तेमाल पर नज़र रखने के साथ ही सोचने की भी जरूरत है.


हम जानते हैं कि भविष्य में दुनिया के सामने सबसे बड़ी चुनौती साइबर सिक्योरिटी को लेकर है और इस बात से दुनिया का कोई देश इनकार नहीं कर सकता है. एआई का जितना विकास होगा, साइबर सिक्योरिटी की समस्या भी उतनी ही विकराल होते जाएगी. ऐसे में समय रहते आर्टिफिशियल इंटेलिजेंस के विकास और इस्तेमाल पर तर्कसंगत नियंत्रण नहीं लगाया गया, तो भविष्य में इंसान और इंसानी बुद्धि का महत्व भी घटेगा, साथ ही ये हमारी सभ्यता और समाज के लिए नुकसानदायक साबित होगा.


बतौर G20 अध्यक्ष भारत करे पहल


आर्टिफिशियल इंटेलिजेंस से जुड़े भविष्य के खतरे को लेकर भारत के लिए और भी ज्यादा सोचने वाली बात है. सबसे पहले तो अब हम दुनिया की सबसे ज्यादा आबादी वाले देश बन चुके हैं. भारत में पहले से ही नौकरियों की भारी कमी है, उसमें भी AI के बढ़ते दखल से इस मोर्चे पर तो जूझना ही होगा. इसके साथ ही इतनी बड़ी आबादी में एआई से भ्रामक जानकारियों की बाढ़ लाई जा सकती है. उससे भी बड़ा खतरा देश के अर्थव्यवस्था को है. हम अब डिजिटल मोड में तेजी से आगे बढ़ रहे हैं, चाहे बैंकिंग हो या फिर दूसरी तरह की सेवाएं. पहले से ही बैंकिंग फ्रॉड हमारे लिए एक बड़ी चुनौती है, AI की वजह से ये चुनौती और भी बड़ी हो सकती है. 


हमने देखा है कि किस तरह से दुनिया के साथ ही हमारे देश में फोटो और वीडियो का हेर-फेर कर लोगों को गुमराह कर दिया जाता है. ताजा उदाहरण 28 मई का है, जब किसान आंदोलन के समय की एक तस्वीर को पहलावानों के प्रदर्शन और पुलिस कार्रवाई से जोड़कर प्रसारित कर दिया गया था, जिसमें पुलिस का बूट एक व्यक्ति के सिर पर था. इस तरह की घटनाएं अक्सर देखने को मिलती हैं. आर्टिफिशियल इंटेलिजेंस का अगर दुरुपयोग हुआ तो, इस तरह की घटनाओं में और भी बढ़ोतरी हो सकती है. आर्टिफिशियल इंटेलिजेंस के जरिए फोटो और वीडियो के साथ काट-छांट और हेर-फेर करना और आसान होते जा रहा है. सबसे बड़ी बात है कि इस तकनीक के इस्तेमाल के लिए किसी ख़ास एक्स्पर्टीज़ की जरूरत भी नहीं रह गई है. इस तरह की चुनौती न सिर्फ भारत के लिए हैं, बल्कि दुनिया के हर देश के लिए है. 


वैश्विक स्तर पर तय  हो सरकारी जवाबदेही तय


आर्टिफिशियल इंटेलिजेंस के दूरगामी खतरों से कैसे निपटा जाए, इसके लिए जब तक सामूहिक तौर से वैश्विक रोडमैप तैयार नहीं किया जाएगा, तब तक कोई भी प्रयास सार्थक नहीं होने वाला है. अभी भारत दुनिया के सबसे ताकतवर आर्थिक समूह जी 20 की अध्यक्षता कर रहा है. इसमें दुनिया के करीब-करीब सभी अग्रणी देश शामिल हैं, जिनका वैश्विक व्यवस्था निर्धारित करने में सबसे महत्वपूर्ण भूमिका होती है. इनमें भारत के साथ अर्जेंटीना, ऑस्ट्रेलिया, ब्राजील, कनाडा, चीन, फ्रांस, जर्मनी, इंडोनेशिया, इटली, जापान, दक्षिण कोरिया, मैक्सिको, रूस, सऊदी अरब, दक्षिण अफ्रीका, तुर्किये, यूनाइटेड किंगडम और संयुक्त राज्य अमेरिका के साथ ही यूरोपीय संघ भी शामिल हैं. 


भारत की अध्यक्षता में जी 20 का शिखर सम्मेलन 9-10 सितंबर को नई दिल्ली में होना है. ऐसे में भारत के लिए ये एक सुनहरा मौका होगा कि वो विश्व बिरादरी को आर्टिफिशियल इंटेलिजेंस के दूरगामी खतरों को लेकर वैश्विक रणनीति बनाने के बारे में सोचने के लिए कहे. भारत की ओर से इस पहल से हो सकता है कि भविष्य में आर्टिफिशियल इंटेलिजेंस को लेकर कोई ठोस रोडमैप बने, जिससे इसके विकास और इस्तेमाल पर सरकारी जवाबदेही अंतरराष्ट्रीय स्तर पर तय हो सके. ये मुद्दा वैश्विक स्तर पर सरकारी जवाबदेही तय करने से भी जुड़ा है.


[ये आर्टिकल निजी विचारों पर आधारित है.]