शुक्रवार, 20 सितंबर, 2024 को मॉन्ट्रियल, कनाडा में वन यंग वर्ल्ड शिखर सम्मेलन में प्रोफेसर योशुआ बेंगियो
प्रसिद्ध कंप्यूटर वैज्ञानिक योशुआ बेंगियो – एक कृत्रिम बुद्धिमत्ता अग्रणी – ने समाज पर उभरती प्रौद्योगिकी के संभावित नकारात्मक प्रभावों के बारे में चेतावनी दी है और इसके जोखिमों को कम करने के लिए और अधिक शोध का आह्वान किया है।
मॉन्ट्रियल विश्वविद्यालय के प्रोफेसर और मॉन्ट्रियल इंस्टीट्यूट फॉर लर्निंग एल्गोरिदम के प्रमुख बेंगियो ने गहन शिक्षण में अपने काम के लिए कई पुरस्कार जीते हैं, एआई का एक उपसमुच्चय जो डेटा में जटिल पैटर्न को पहचानने का तरीका सीखने के लिए मानव मस्तिष्क में गतिविधि की नकल करने का प्रयास करता है।
लेकिन उन्हें प्रौद्योगिकी के बारे में चिंता है और चेतावनी दी है कि “बहुत अधिक शक्ति” वाले कुछ लोग ऐसा भी करना चाह सकते हैं देखिये मानवता का स्थान मशीनों ने ले लिया है।
बेंगियो ने मॉन्ट्रियल में वन यंग वर्ल्ड समिट में सीएनबीसी की तानिया ब्रायर से कहा, “भविष्य में खुद को प्रोजेक्ट करना वास्तव में महत्वपूर्ण है जहां हमारे पास ऐसी मशीनें हैं जो कई मामलों में हमारे जितनी ही स्मार्ट हैं और समाज के लिए इसका क्या मतलब होगा।” युवा नेता आज दुनिया के सामने मौजूद चुनौतियों का समाधान कर रहे हैं।
उन्होंने कहा, मशीनों में जल्द ही मनुष्यों की अधिकांश संज्ञानात्मक क्षमताएं हो सकती हैं – कृत्रिम सामान्य बुद्धिमत्ता (एजीआई) एक प्रकार की एआई तकनीक है जिसका उद्देश्य मानव बुद्धि के बराबर या बेहतर बनाना है।
“बुद्धि शक्ति देती है। तो उस शक्ति को कौन नियंत्रित करेगा?” उसने कहा। “अधिकांश लोगों से अधिक जानने वाली प्रणालियाँ गलत हाथों में खतरनाक हो सकती हैं और भू-राजनीतिक स्तर पर अधिक अस्थिरता पैदा कर सकती हैं, उदाहरण के लिए, या आतंकवाद।”
बेंगियो के अनुसार, सीमित संख्या में संगठन और सरकारें शक्तिशाली एआई मशीनें बनाने में सक्षम होंगी, और सिस्टम जितने बड़े होंगे, वे उतने ही स्मार्ट होंगे।
उन्होंने कहा, “आप जानते हैं कि इन मशीनों को बनाने और प्रशिक्षित करने में अरबों की लागत आती है (और) बहुत कम संगठन और बहुत कम देश ऐसा कर पाएंगे। यह पहले से ही मामला है।”
“शक्ति का संकेंद्रण होने जा रहा है: आर्थिक शक्ति, जो बाज़ारों के लिए ख़राब हो सकती है; राजनीतिक शक्ति, जो लोकतंत्र के लिए ख़राब हो सकती है; और सैन्य शक्ति, जो हमारे ग्रह की भू-राजनीतिक स्थिरता के लिए ख़राब हो सकती है। इसलिए, बहुत सारी चीज़ें खुले प्रश्न जिनका हमें सावधानी से अध्ययन करना होगा और जितनी जल्दी हो सके कम करना शुरू करना होगा।”
हमारे पास यह सुनिश्चित करने के तरीके नहीं हैं कि ये सिस्टम लोगों को नुकसान नहीं पहुंचाएंगे या लोगों के खिलाफ नहीं जाएंगे… हम नहीं जानते कि यह कैसे करना है।
जोशुआ बेंगियो
मॉन्ट्रियल इंस्टीट्यूट फॉर लर्निंग एल्गोरिदम के प्रमुख
उन्होंने कहा, ऐसे नतीजे दशकों के भीतर संभव हैं। “लेकिन अगर यह पांच साल है, तो हम तैयार नहीं हैं… क्योंकि हमारे पास यह सुनिश्चित करने के तरीके नहीं हैं कि ये सिस्टम लोगों को नुकसान नहीं पहुंचाएंगे या लोगों के खिलाफ नहीं जाएंगे… हम नहीं जानते कि यह कैसे करना है,” उन्होंने कहा। .
बेंगियो ने कहा, यह सुझाव देने के लिए तर्क हैं कि जिस तरह से एआई मशीनों को वर्तमान में प्रशिक्षित किया जा रहा है, वह “ऐसी प्रणालियों को जन्म देगा जो मनुष्यों के खिलाफ हो जाएंगी।”
“इसके अलावा, ऐसे लोग भी हैं जो उस शक्ति का दुरुपयोग करना चाहते हैं, और ऐसे लोग भी हैं जो मानवता का स्थान मशीनों द्वारा लेते हुए देखकर खुश हो सकते हैं। मेरा मतलब है, यह एक सीमा है, लेकिन इन लोगों के पास बहुत अधिक शक्ति हो सकती है, और वे ऐसा कर सकते हैं ऐसा तब तक करें जब तक कि हम अभी सही रेलिंग न लगा दें,” उन्होंने कहा।
खुला पत्र जून में शीर्षक दिया गया: “उन्नत कृत्रिम बुद्धिमत्ता के बारे में चेतावनी देने का अधिकार।” इस पर वायरल एआई चैटबॉट चैटजीपीटी के पीछे की कंपनी ओपन एआई के वर्तमान और पूर्व कर्मचारियों द्वारा हस्ताक्षर किए गए थे।
पत्र में चेतावनी दी गई है एआई की प्रगति के “गंभीर जोखिम”। और उन्हें कम करने के लिए वैज्ञानिकों, नीति निर्माताओं और जनता से मार्गदर्शन का आह्वान किया। OpenAI पिछले कुछ महीनों से बढ़ती सुरक्षा चिंताओं का विषय रहा है “एजीआई रेडीनेस” टीम भंग अक्टूबर में.
बेंगियो ने सीएनबीसी को बताया, “पहली चीज़ जो सरकारों को करने की ज़रूरत है वह विनियमन है जो (कंपनियों को) इन सीमांत प्रणालियों का निर्माण करते समय पंजीकरण करने के लिए मजबूर करती है जो कि सबसे बड़ी प्रणालियों की तरह हैं, जिन्हें प्रशिक्षित करने में करोड़ों डॉलर खर्च होते हैं।” “सरकारों को पता होना चाहिए कि वे कहां हैं, आप जानते हैं, इन प्रणालियों की विशिष्टताएं।”
बेंगियो ने कहा, चूंकि एआई इतनी तेजी से विकसित हो रहा है, सरकारों को “थोड़ा रचनात्मक होना चाहिए” और ऐसा कानून बनाना चाहिए जो प्रौद्योगिकी परिवर्तनों के अनुकूल हो सके।
समाज और मानवता के विकास को सकारात्मक और लाभकारी दिशा में ले जाने में अब भी देर नहीं हुई है।
जोशुआ बेंगियो
मॉन्ट्रियल इंस्टीट्यूट फॉर लर्निंग एल्गोरिदम के प्रमुख
कंप्यूटर वैज्ञानिक के अनुसार, एआई विकसित करने वाली कंपनियों को भी अपने कार्यों के लिए उत्तरदायी होना चाहिए।
“दायित्व भी एक अन्य उपकरण है जो (कंपनियों को) अच्छा व्यवहार करने के लिए मजबूर कर सकता है, क्योंकि … अगर यह उनके पैसे के बारे में है, तो मुकदमा होने का डर – यह उन्हें जनता की रक्षा करने वाले काम करने के लिए प्रेरित करेगा। यदि वे जानते हैं कि वे जानते हैं मुकदमा नहीं किया जा सकता, क्योंकि अभी यह एक तरह से ग्रे जोन है, तो जरूरी नहीं कि वे अच्छा व्यवहार करें,” उन्होंने कहा। “(कंपनियां) एक-दूसरे के साथ प्रतिस्पर्धा करती हैं, और, आप जानते हैं, वे सोचते हैं कि एजीआई में सबसे पहले पहुंचने वाला हावी हो जाएगा। इसलिए यह एक दौड़ है, और यह एक खतरे की दौड़ है।”
बेंगियो ने कहा कि एआई को सुरक्षित बनाने के लिए कानून बनाने की प्रक्रिया उसी तरह होगी जैसे विमान या कारों जैसी अन्य प्रौद्योगिकियों के लिए नियम विकसित किए गए थे। उन्होंने कहा, “एआई के लाभों का आनंद लेने के लिए, हमें विनियमित करना होगा। हमें रेलिंग लगानी होगी। प्रौद्योगिकी कैसे विकसित की जाए, इस पर हमें लोकतांत्रिक निगरानी रखनी होगी।”
OpenAI ने कहा कि इसने बाधित कर दिया है “दुनिया भर से 20 से अधिक ऑपरेशन और भ्रामक नेटवर्क जिन्होंने हमारे मॉडल का उपयोग करने का प्रयास किया।” इनमें अमेरिका और रवांडा में चुनावों से पहले बनाए गए फर्जी खातों द्वारा किए गए सामाजिक पोस्ट शामिल हैं।
बेंगियो ने कहा, “सबसे बड़ी अल्पकालिक चिंताओं में से एक, लेकिन जैसे-जैसे हम अधिक सक्षम प्रणालियों की ओर आगे बढ़ेंगे, वह दुष्प्रचार, गलत सूचना, राजनीति और विचारों को प्रभावित करने की एआई की क्षमता बढ़ने वाली है।” उन्होंने कहा, “जैसे-जैसे हम आगे बढ़ेंगे, हमारे पास ऐसी मशीनें होंगी जो अधिक यथार्थवादी छवियां, आवाजों की अधिक यथार्थवादी ध्वनि वाली नकलें, अधिक यथार्थवादी वीडियो तैयार कर सकेंगी।”
बेंगियो ने इसका जिक्र करते हुए कहा, यह प्रभाव चैटबॉट्स के साथ बातचीत तक बढ़ सकता है एक खोज इतालवी और स्विस शोधकर्ताओं द्वारा दिखाया गया है कि OpenAI का GPT-4 बड़ा भाषा मॉडल लोगों को एक इंसान की तुलना में बेहतर तरीके से अपना दिमाग बदलने के लिए प्रेरित कर सकता है। उन्होंने कहा, “यह सिर्फ एक वैज्ञानिक अध्ययन था, लेकिन आप कल्पना कर सकते हैं कि ऐसे लोग हैं जो इसे पढ़ रहे हैं और हमारी लोकतांत्रिक प्रक्रियाओं में हस्तक्षेप करने के लिए ऐसा करना चाहते हैं।”