विज्ञान एवं तकनीक अब मशीनों के माध्यम से इंसानी क्षमताओं को बढ़ाने के दौर को पार कर इंसानों की तरह सोचने, योजना बनाने और उनको क्रियान्वित करने वाली मशीनें निर्मित करने के दौर में पहुँच चुके हैं। ऐसी कृत्रिम बुद्धिमत्ता (ARTIFICIAL INTELLIGENCE) से स्वचालित कार, मनपसंद संगीत/पेंटिंग, विविध भाषायी अनुवाद, ग्राहक सेवा प्रदान करने के युग का सूत्रपात हो रहा है। सामान्य प्रयोजन एआई प्रणाली (GENERAL PURPOSE AI SYSTEM) अर्थात जी0पी0ए0आइ0 (GPAI) ऐसी एआई प्रणाली हैं जिनके संभावित उपयोगों की एक वृहद श्रृंखला है। ये उपयोग इनके विकसितकर्ता द्वारा इच्छित और अनपेक्षित दोनों हो सकते हैं। 0पी0ए0आइ0 प्रणालियों को विभिन्न क्षेत्रों में अनेकों अलग-अलग प्रकार के कार्यों के लिए प्रयोग किया जा सकता है। जी0पी0ए0आइ0 प्रणालियों को छवि/भाषण पहचान, ऑडियो/वीडियो निर्माण, पैटर्न पहचान, अनुवाद जैसे कार्य करने के लिए डिज़ाइन किया गया है। परंतु जैसी की कहावत है, “विज्ञान एक अच्छा सेवक है, लेकिन एक बुरा मालिक भी”। अतः जी0पी0ए0आइ0 की क्षमताओं, इसके जोखिमों और खतरों से निपटने की जानकारी अति आवश्यक है।
इसी उद्देश्य से प्रथम अंतर्राष्ट्रीय एआई सुरक्षा रिपोर्ट 29 जनवरी 2025 को प्रकाशित हुई। यह रिपोर्ट जी0पी0ए0आइ0 द्वारा उत्पन्न जोखिमों और उन्हें कम करने के तरीकों का विस्तृत आकलन करती है। रिपोर्ट को ग्रेट ब्रिटेन (यूनाइटेड किंगडम) के ब्लेचली पार्क में एआई सुरक्षा शिखर सम्मेलन-2023 में भाग लेने वाले 30 देशों द्वारा कमीशन किया गया था, ताकि पेरिस में एआई एक्शन समिट-2025 में इसे प्रस्तुत किया जा सके। रिपोर्ट को कनाडाई यंत्र अधिगम (MACHINE LEARNING) के अग्रणीय योशुआ बेंगियो के नेतृत्व में 96 कृत्रिम बुद्धिमत्ता विशेषज्ञों के एक समूह द्वारा प्रकाशित किया गया था, जिन्हें अक्सर एआई के “गॉडफादर” में से एक माना जाता है।
दुनिया के सामने आज एक यक्ष प्रश्न है कि, जी0पी0ए0आइ0 क्या-क्या कर सकता है? इस रिपोर्ट ने इस प्रश्न का आंशिक जवाब देने का प्रयास किया है और माना है कि जी0पी0ए0आइ0 की क्षमताएँ तेज़ी से बढ़ी हैं और भविष्य में इसकी प्रगति धीमी से लेकर बहुत तेज़ तक हो सकती है। ऐसी ही अनिश्चितताओं के करण नीति निर्माताओं को “साक्ष्य दुविधा” का सामना करना पड़ता है। एक ओर, स्पष्ट सबूत या जोखिम होने से पहले समाधान (MITIGATION) संबंधी उपायों को पेश करना अप्रभावी हो सकता है और अनावश्यक समाधान को जन्म दे सकता है, वहीं दूसरी ओर स्पष्ट सबूत होने तक प्रतीक्षा करने से समाज की सजगता घट सकती है और आवश्यकता पड़ने पर समाधान असंभव भी हो सकता है। रिपोर्ट में एआई से होने वाले कई ठोस नुकसानों की पहचान की गई है, जिसमें गोपनीयता का उल्लंघन, घोटालों को सक्षम बनाना, अविश्वसनीय एआई के कारण यौन सामग्री के साथ डीपफेक का निर्माण आदि शामिल है। यह विशेष रूप से महिलाओं और बच्चों के साथ संभावित हिंसा और दुर्व्यवहार को बढ़ावा देने में सहायक हो सकता है। साथ ही साइबर और जैविक हमलों के लिए एआई के दुर्भावनापूर्ण और मनमाने उपयोग तथा भविष्य की एआई प्रणालियों पर नियंत्रण खोने जैसे जोखिम भी शामिल हैं।
अंतर्राष्ट्रीय एआई सुरक्षा रिपोर्ट-2025 को तैयार करने में 96 एआई विशेषज्ञों, 30 देशों, आर्गेनाइजेशन फॉर इकनॉमिक क्वॉपरैशन एण्ड डेवलपमेंट, यूरोपीय संघ, एवं संयुक्त राष्ट्र संघ द्वारा नामित अंतर्राष्ट्रीय विशेषज्ञ सलाहकार पैनल का योगदान रहा है। इस रिपोर्ट का उद्देश्य ऐसी वैज्ञानिक सूचना उपलब्ध कराना है जो नीति निर्माण में सहायक हो। साथ ही निष्पक्षता सुनिश्चित करने के दृष्टिगत यह किसी नीति विशेष की सिफारिश नहीं करती। जी0पी0ए0आइ0 के अनेकों नुकसान सुस्थापित हैं जैसे धोखाधड़ी, गैर-सहमतिपूर्ण अंतरंग छवि लेना, बाल यौन शोषण सामग्री, ऐसे मॉडेल आउट्पुट जो लोगों के विशेष समूहों, विशेष विचारों पर आधारित होना एवं गोपनीयता भंग होने आदि। आज कृत्रिम बुद्धिमत्ता समर्थित हैकिंग, जैविक (BIOLOGICAL) आक्रमण जैसे जटिल प्रारूप में पक्षपात सामने आ रहे हैं।
निर्विवाद रूप से जोखिम प्रबंधन तकनीकें अभी प्रारम्भिक अवस्था में हैं, परंतु इनमें आगे और प्रगति संभव है। शोधकर्ता एवं नीति निर्माता इस प्रयास में हैं कि जोखिम प्रबंधन के तरीकों का मानकीकरण (STANDARDIZATION) किया जा सके। इसके लिए वे अंतर्राष्ट्रीय स्तर पर भी समन्वय कर रहे हैं। दुनिया भर के लोग सामान्य प्रयोजन कृत्रिम बुद्धिमत्ता के लाभों का आनंद तभी ले सकेंगे जब इसके जोखिमों का भलीभाँति प्रबंधन हो सके। समग्रता से नीतिनिर्माण के लिए कृत्रिम बुद्धिमत्ता से संभावित लाभ तथा जोखिम दोनों पर विचार करने के आवश्यकता होगी। साथ ही यह भी ध्यान में रखना होगा कि दूसरे प्रकार की कृत्रिम बुद्धिमत्ता के जोखिम तथा फायदे जी0पी0ए0आइ0 से अलग होंगे। सामान्य प्रयोजन कृत्रिम बुद्धिमत्ता (जी0पी0ए0आइ0) पर केंद्रित अंतर्राष्ट्रीय एआई सुरक्षा रिपोर्ट-2025 मुख्य रूप से तीन मूल बिंदुओं पर वैज्ञानिक सुबूतों का सारांश प्रस्तुत करती है,
(I). जी0पी0ए0आइ0 क्या कर सकता है?
(II). जी0पी0ए0आइ0 से संबंधित खतरे क्या-क्या हैं?
(III). जी0पी0ए0आइ0 आधारित खतरों से निपटने की क्या तकनीकें हैं?
दुनिया के सामने आज यक्ष प्रश्न यह है कि, सामान्य प्रयोजन कृत्रिम बुद्धिमत्ता की वर्तमान क्षमताएं क्या हैं और भविष्य में इनका किन दिशाओं में और कितना प्रभाव हो सकता है? कृत्रिम बुद्धिमत्ता की वर्तमान क्षमताओं का अनुमान इन तथ्यों से लगाया जा सकता है कि वह जटिल कंप्युटर कोड लिखने, दिए गए संक्षिप्त विवरण से वास्तविक एवं छोटा विडिओ तैयार करने आदि जैसे कार्य संपादित करने में सक्षम है। हालिया आकलन के अनुसार, आधुनिकतम कृत्रिम बुद्धिमत्ता मॉडेल के कम्प्यूटेशनल संसाधनों में चार गुना वृद्धि तथा ट्रेन करने वाले डाटासेट के आकार में ढाई ढाई गुना वृद्धि हुई है। कृत्रिम बुद्धिमत्ता के क्षेत्र में भविष्य में होने वाली क्रमागत उन्नति के जोखिम प्रबंधन पर महत्वपूर्ण प्रभाव होंगे। लेकिन विशेषज्ञ इस बात पर असहमत हैं कि आने वाले महीनों और सालों में क्या क्या उम्मीद की जाए?
समाज, राष्ट्र और दुनिया के अस्तित्व और स्वरूप से संबंधित अनिर्णीत प्रश्न यह है कि जी0पी0ए0आइ0 से जुड़े जोखिम क्या हैं? रिपोर्ट में इन जोखिमों को तीन वर्गों में बांटा गया है। पहला, दुर्भावनापूर्ण उपयोग के जोखिम, दूसरा खराबी के जोखिम, तीसरा प्रणालीगत जोखिम। इन सभी वर्गों में हो चुके जोखिम और अगले कुछ वर्षों में अपेक्षित जोखिम शामिल हैं। जी0पी0ए0आइ0 के दुर्भावनापूर्ण प्रयोग से व्यक्तिगत नुकसान, संगठन का नुकसान और समाज के नुकसान शामिल हैं। उदाहरण के लिए दुर्भावनापूर्ण दुरुपयोग से फेक कंटेन्ट पैदा करना, बिना सहमति के डीपफेक पॉर्नाग्रफी तैयार करना, आवाज की गलत पहचान से वित्तीय धोकाधड़ी करना, वसूली के लिए ब्लैक्मैल करना, व्यक्तिगत तथा पेशेवर प्रतिष्ठा को क्षति पहुंचना, मनोवैज्ञानिक दुर्व्यवहार करने जैसे कुकृत्य इसमें शामिल हैं। पूरी दुनिया के लिए आज बड़ी चुनौती यह भी है कि जी0पी0ए0आइ0 चुनावी एवं राजनैतिक परिणामों को प्रभावित कर सकता है। इसे वॉटरमार्किंग जैसी उपायों से रोका जा सकता है। शत्रु देशों द्वारा एक दूसरे पर साइबर हमले किए जा सकते हैं जिससे वहाँ की अर्थव्यवस्था तथा जन-जीवन को अस्त-व्यस्त किया जा सकता है।
सामान्य प्रयोजन कृत्रिम बुद्धिमत्ता से संबंधित जोखिमों को पहचानना एवं जोखिम का आकलन तथा मोनिट्रिंग करना काफी चुनौतीपूर्ण है। तकनीकी के तेज विकास के करण जी0पी0ए0आइ0 से संबंधित जोखिमों का प्रबंधन अत्यधिक जटिल है। प्रणाली सुरक्षा पद्धति जी0पी0ए0आइ0 से संबंधित जोखिमों के प्रबंधन में प्रभावी है। इसमें हार्डवेयर, सॉफ्टवेयर, संगठन संरचना तथा मानवीय कारकों के बीच पारस्परिक क्रिया एवं संबंध शामिल हैं। इसके लिए डिफेन्स इन डेप्थ स्ट्रैटिजी एक महत्वपूर्ण तकनीकी पद्धति के रूप में उभरी है। अनेक सुरक्षात्मक उपायों पर आधारित यह रणनीति नाभिकीय सुरक्षा, तथा संक्रामक रोग नियंत्रण में प्रयोग होने वाली रणनीति है। यह जी0पी0ए0आइ0 के लिए अनूकूलित कर उनके पूरे जीवन चक्र, डाटा, आधारभूत संरचना देने वाले, विकसित-कर्ता, तथा प्रयोग करने वालों की अलग-अलग भूमिकाओ के लिए अनूकूलित किया जा रहा है। वर्तमान प्रमाण जी0पी0ए0आइ0 में दो मूल चुनतियों की तरफ इशारा करते हैं।
पहला जोखिमों को प्राथमिकता देना कठिन है चूंकि उनकी जटिलता और उनके होने में काफी अनिश्चात्ता है। दूसरा, कृत्रिम बुद्धिमत्ता श्रंखला में उचित भूमिका निश्चित करना तथा प्रभावी कार्रवाई अमल में लाना जटिल है। जी0पी0ए0आइ0 के जोखिमों का पता लगाना तथा जोखिमों का मूल्यांकन डिजाइन के प्रारम्भिक चरण में किया जाना अति महत्वपूर्ण है न कि केवल मॉडेल विकसित होने के बाद। जोखिम का पता लगाना तथा मूल्यांकन करना चुनौतीपूर्ण है चूंकि जी0पी0ए0आइ0 बहुत से क्षेत्रों में लागू किया जा सकता है तथा इसकी जोखिम क्षमताएं समय के साथ बदलती रहती हैं। उदाहरण के लिए स्वास्थ्य देखभाल तथा रचनात्मक लेखन में कृत्रिम बुद्धिमत्ता से संबंधित जोखिम काफी भिन्न होंगे। जहां स्वास्थ्य के क्षेत्र में शुद्धता अति महत्वपूर्ण है, वहीं रचनात्मक लेखन में शुद्धता का महत्व बहुत कम है। कुछ जोखिम ऐसे हो सकते हैं जिनका पूर्वानुमान नहीं किया जा सकता।
सामान्य प्रयोजन कृत्रिम बुद्धिमत्ता के जोखिमों के प्रभावी प्रबंधन के लिए बहुत से समूहों की भागीदारी आवश्यक है। अर्थात इसे केवल वैज्ञानिक समुदाय के हाथों में नहीं दिया जा सकता। जोखिम प्रबंधन के पाँच मुख्य चरण हैं जैसे, जोखिम पहचान, जोखिम आकलन, जोखिम मूल्यांकन, जोखिम न्यूनीकरण, जोखिम संचालन। दूसरे क्षेत्रों में प्रयोग होने वाली जोखिम प्रबंधन रणनीतियाँ जैसे जैव सुरक्षा तथा नाभिकीय सुरक्षा को सामान्य प्रयोजन कृत्रिम बुद्धिमत्ता के क्षेत्र में भी लागू कर सकते हैं। इसमें नियोजित ऑडिट, निरीक्षण, सेफ़्टी बफ़र, नियंत्रण बैंडिंग, दीर्घकालिक प्रभाव आकलन, ALARP (ऐज लो एज रीज़नब्ली प्रकटिकबल) आदि प्रमुख हैं। मानवाधिकार से जुड़े प्रभावों का मूल्यांकन भी सामान्य प्रयोजन कृत्रिम बुद्धिमत्ता के लिए अति महत्वपूर्ण है। पूर्वानुमान एक दूसरा लंबे समय से प्रयोग होने वाला तरीका है जिसके फायदे और नुकसान दोनों हैं, जो सामान्य प्रयोजन कृत्रिम बुद्धिमत्ता के संबंध में बहुत ज़्यादा जोखिम वाले फैसले लेने में मदद कर सकता है। सुरक्षा एवं विश्वसनीयता अभियांत्रिकी विशेष रूप से उपयुक्त हैं। सामान्य प्रयोजन कृत्रिम बुद्धिमत्ता के पूरे चक्र में डिज़ाइन विकल्पों की जांच करना महत्वपूर्ण है। डिफेन्स इन डेप्थ मॉडल सामान्य प्रयोजन एआई जोखिम प्रबंधन के लिए उपयोगी है।
अंतर्राष्ट्रीय एआई सुरक्षा रिपोर्ट-2025 के अनुसार सामान्य प्रयोजन कृत्रिम बुद्धिमत्ता से संबंधित नीति निर्माण एवं जोखिम प्रबंधन के लिए सामान्य चुनौतियाँ निमन्वत हैं:
(I). स्वायत्त जी0पी0ए0आइ0 ऐजेंट्स जोखिम बढ़ा सकते हैं।
(II). जी0पी0ए0आइ0 प्रणाली का अनेकों कार्यों में विस्तार सुरक्षा आश्वासन को जटिल बनाता है।
(III). जी0पी0ए0आइ0 प्रणालियों के विकसितकर्ता अपने मॉडेल के आंतरिक परिचालन एवं स्वरूप के बारे में बहुत कम जानते हैं।
(IV). सुरक्षा के लिए मूल्यांकन में अंतर कायम रहता है।
(V). एआई प्रणाली की खामियों का तेजी से वैश्विक प्रभाव हो सकता है।
उक्त के अतिरिक्त, कृत्रिम बुद्धिमत्ता के जोखिम प्रबंधन और नीति निर्माण में सामाजिक चुनौतियाँ भी हैं। अतः जोखिम की पहचान और मूल्यांकन करना, सामान्य प्रयोजन कृत्रिम बुद्धिमत्ता प्रणालियों के खतरों का मूल्यांकन जोखिम प्रबंधन का एक अभिन्न अंग है। मौजूदा एआई विनियमों और प्रतिबद्धताओं के लिए कठोर जोखिम पहचान और मूल्यांकन की आवश्यकता है। जी0पी0ए0आइ0 के जोखिमों का आकलन करने के लिए मौजूदा मात्रात्मक (QUANTITATIVE) तरीके बहुत उपयोगी तो हैं परंतु उनकी भी महत्वपूर्ण सीमाएँ हैं। कठोर जोखिम मूल्यांकन के लिए कई मूल्यांकन दृष्टिकोणों, महत्वपूर्ण संसाधनों और बेहतर पहुँच के संयोजन की आवश्यकता होती है। स्पष्ट जोखिम मूल्यांकन मानकों और कठोर मूल्यांकनों की अनुपस्थिति एक तत्काल नीतिगत चुनौती पैदा कर रही है, क्योंकि एआई मॉडेलों को उनके जोखिमों का मूल्यांकन करने की तुलना में तेज़ी से तैनात किया जा रहा है।
सामान्य प्रयोजन के एआई जोखिम मूल्यांकन के लिए मौजूदा तकनीकी दृष्टिकोण और कार्यप्रणाली परीक्षण और मूल्यांकन पर बहुत अधिक निर्भर करती है, जिन्हें निम्नलिखित चार स्तरों में बांटा जा सकता है, मॉडल परीक्षण, रेड-टीमिंग, फ़ील्ड परीक्षण तथा दीर्घकालिक प्रभाव आकलन। जोखिम मूल्यांकन के ये चार स्तर (मॉडल परीक्षण, रेड-टीमिंग, फील्ड परीक्षण और दीर्घकालिक प्रभाव मूल्यांकन) आवश्यक तो हैं लेकिन व्यापक जोखिम मूल्यांकन के लिए पर्याप्त नहीं हैं। रिपोर्ट में रेखांकित किया गया है कि जोखिम समाधान एवं निगरानी हेतु और अधिक विश्वसनीय मॉडलों को प्रशिक्षित करना, निगरानी करना, हस्तक्षेप करना, तथा गोपनीयता के लिए तकनीकी तरीके प्रयोग में लाया जाना अति आवश्यक है।
अंतर्राष्ट्रीय एआई सुरक्षा रिपोर्ट-2025 के अनुसार सामान्य प्रयोजन एआई का भविष्य उल्लेखनीय रूप से अनिश्चित है। इस परिवर्तनकारी प्रौद्योगिकी का लाभ सुरक्षित रूप से प्राप्त करने के लिए, शोधकर्ताओं और नीति निर्माताओं को इसके साथ आने वाले जोखिमों की पहचान करने और उन्हें कम करने के लिए आवश्यक उपाय करने की आवश्यकता है। सामान्य प्रयोजन एआई के जोखिमों के समाधान के लिए तकनीकी तरीके मौजूद हैं, लेकिन उन सभी की क्षमताएं सीमित हैं। इतिहास में पहली बार, इस रिपोर्ट ने 30 देशों, ओईसीडी, यूरोपीय संघ और संयुक्त राष्ट्र द्वारा नामित विशेषज्ञ प्रतिनिधियों के साथ-साथ कई अन्य विश्व-अग्रणी विशेषज्ञों को इन महत्वपूर्ण चर्चाओं के लिए एक साझा वैज्ञानिक, साक्ष्य-आधारित आधार प्रदान करने के लिए एक साथ लाया। इसके परिणाम बहुत महत्वपूर्ण हैं। इन प्रयासों को आगे जारी रखने की आवश्यकता है। आशा है कि यह रिपोर्ट इस क्षेत्र के लिए नीति-निर्देशक तत्वों की तरह कार्य करेगी और भविष्य की रिपोर्ट इस क्षेत्र से पैदा अवसरों, चुनौतियों और उनके समाधान में प्रभावी दिशा सूचक सिद्ध होगी।