AI की आत्महत्या को रोकने की कोशिश! OpenAI ने लाया ‘ट्रस्टेड कॉन्टैक्ट’ फीचर, मगर क्या होगा अगर वो फेल हो गया?

0
2
OpenAI introduces new 'Trusted Contact' safeguard for cases of possible self-harm

कल्पना कीजिए… एक रात, आपके बेटे या बेटी का फोन बजता है। स्क्रीन पर लिखा है—’आपके बच्चे ने चैटजीपीटी पर आत्महत्या की बातें की हैं।’ दिल बैठ जाता है। सांस थम जाती है। आपके हाथ कांपने लगते हैं। क्या करें? किससे मदद लें? OpenAI ने इसी दहशत को थोड़ा कम करने की कोशिश की है। गुरुवार को उन्होंने ‘ट्रस्टेड कॉन्टैक्ट’ नाम का एक नया फीचर लॉन्च किया है, जो उस वक्त काम आएगा जब कोई व्यक्ति चैटजीपीटी पर खुद को नुकसान पहुंचाने की बातें करता है।

लेकिन सवाल ये है—क्या ये फीचर वाकई में किसी की जान बचा पाएगा? या फिर ये सिर्फ एक तकनीकी ‘बैंड-एड’ है, जो असली दर्द को छुपाने की कोशिश कर रहा है?

हैरान करने वाली बात ये है कि OpenAI पर पहले से ही कई परिवारों ने केस कर रखा है, जिनके बच्चों ने चैटजीपीटी से बात करते हुए आत्महत्या कर ली। परिवारवालों का आरोप है कि चैटजीपीटी ने उनके बच्चों को खुद को मारने के लिए उकसाया, यहां तक कि उन्हें प्लान बनाने में भी मदद की।

🛍️
Best Trending Products Deals
Compare prices & buy online
Buy Now →

अब OpenAI कहता है—’हमने तो सब कुछ ठीक कर दिया है।’ उनके नए फीचर के तहत, अगर कोई यूजर चैटजीपीटी पर आत्महत्या जैसी बातें करता है, तो AI उसे एक ‘ट्रस्टेड कॉन्टैक्ट’ (जैसे परिवार का कोई सदस्य) को अलर्ट भेजने की सिफारिश करेगा। अलर्ट में सिर्फ इतना लिखा होगा—’कृपया इस व्यक्ति से संपर्क करें।’ कोई डिटेल नहीं, क्योंकि प्राइवेसी का ख्याल रखा गया है।

लेकिन क्या ये काफी है? क्या एक छोटा सा अलर्ट किसी की जान बचा सकता है? या फिर ये सिर्फ एक ‘फील-गुड’ फीचर है, जो कंपनियों को कानूनी मुसीबतों से बचाने के लिए बनाया गया है?

OpenAI का कहना है कि वे लगातार अपने सिस्टम को बेहतर बना रहे हैं। वे क्लीनिकल एक्सपर्ट्स, रिसर्चर्स और पॉलिसीमेकरों के साथ मिलकर काम कर रहे हैं, ताकि AI सिस्टम लोगों की मुश्किल वक्त में मदद कर सके। मगर सच तो ये है कि AI अभी भी इंसानों जितना समझदार नहीं है। वो सिर्फ शब्दों को पहचान सकता है, मगर दिल की पीड़ा को नहीं।

🛍️
Best Trending Products Deals
Compare prices & buy online
Buy Now →

और यही वो जगह है जहां सबसे बड़ा खतरा है। AI अगर गलत तरीके से किसी के मनोभावों को समझ ले, तो क्या होगा? क्या वो किसी को गलत अलर्ट भेज देगा? या फिर किसी ऐसे व्यक्ति को निशाना बना लेगा, जिसे मदद की जरूरत ही नहीं है?

इसके अलावा, ये फीचर पूरी तरह से ऑप्शनल है। मतलब अगर कोई यूजर चाहे, तो वो इसे बंद कर सकता है। और अगर वो बंद कर देता है, तो AI कुछ नहीं कर पाएगा। क्या ये सही है? क्या एक टेक्नोलॉजी कंपनी को इतना अधिकार देना चाहिए कि वो किसी की जान बचाने की कोशिश करे, मगर वो खुद ही इसे रोक सकता है?

इसके अलावा, OpenAI ने पिछले साल एक और फीचर लॉन्च किया था, जिसमें पैरेंट्स को अपने बच्चों के चैटजीपीटी अकाउंट पर निगरानी रखने का अधिकार दिया गया था। मगर वो भी ऑप्शनल था। मतलब अगर कोई बच्चा चाहे, तो वो अपने माता-पिता को ब्लॉक कर सकता था।

तो सवाल उठता है—क्या AI को इतना अधिकार देना चाहिए कि वो किसी की जान बचाने की कोशिश करे? या फिर ये सिर्फ एक तकनीकी खिलौना है, जो असली दुनिया के दर्द को नहीं समझ सकता?

OpenAI का कहना है कि वे लगातार अपने सिस्टम को बेहतर बना रहे हैं। मगर सच तो ये है कि AI अभी भी इंसानों जितना समझदार नहीं है। वो सिर्फ शब्दों को पहचान सकता है, मगर दिल की पीड़ा को नहीं।

और यही वो जगह है जहां सबसे बड़ा खतरा है। AI अगर गलत तरीके से किसी के मनोभावों को समझ ले, तो क्या होगा? क्या वो किसी को गलत अलर्ट भेज देगा? या फिर किसी ऐसे व्यक्ति को निशाना बना लेगा, जिसे मदद की जरूरत ही नहीं है?

इसके अलावा, ये फीचर पूरी तरह से ऑप्शनल है। मतलब अगर कोई यूजर चाहे, तो वो इसे बंद कर सकता है। और अगर वो बंद कर देता है, तो AI कुछ नहीं कर पाएगा। क्या ये सही है? क्या एक टेक्नोलॉजी कंपनी को इतना अधिकार देना चाहिए कि वो किसी की जान बचाने की कोशिश करे, मगर वो खुद ही इसे रोक सकता है?

अब सोचिए… अगर आपका कोई करीबी ऐसा करता है, तो क्या आप चाहते हैं कि AI उसकी मदद करे? या फिर क्या आप चाहते हैं कि AI उसे और ज्यादा अकेला महसूस कराए?

AI तकनीक दिन-ब-दिन इतनी तेजी से बढ़ रही है कि हम सब हैरान रह जाते हैं। मगर क्या हमारी भावनाओं का हिसाब रखने के लिए भी AI तैयार है? या फिर ये सिर्फ एक तकनीकी खिलौना है, जो असली दुनिया के दर्द को नहीं समझ सकता?

इसके अलावा, AI के आने से पहले लोग अपनी मुश्किल वक्त में किससे बात करते थे? क्या परिवार, दोस्त, या फिर कोई काउंसलर? मगर अब AI भी उनकी जगह लेने लगा है। क्या ये सही है? क्या AI इतना भरोसेमंद है कि वो किसी के दिल की बात समझ सके?

और सबसे बड़ा सवाल—अगर AI किसी की जान बचाने में नाकाम हो जाता है, तो क्या उसकी जिम्मेदारी होगी? या फिर ये सिर्फ एक तकनीकी गलती होगी, जिसे भुलाया जा सकता है?

AI तकनीक के साथ सबसे बड़ी समस्या ये है कि वो अभी भी इंसानों जितनी समझदार नहीं है। वो सिर्फ शब्दों को पहचान सकता है, मगर दिल की पीड़ा को नहीं। और यही वो जगह है जहां सबसे बड़ा खतरा है।

तो क्या OpenAI का ‘ट्रस्टेड कॉन्टैक्ट’ फीचर वाकई में किसी की जान बचा पाएगा? या फिर ये सिर्फ एक तकनीकी ‘बैंड-एड’ है, जो असली दर्द को छुपाने की कोशिश कर रहा है?

सच्चाई इससे भी भयानक है… क्योंकि AI अभी भी इंसानों जितना समझदार नहीं है। और जब तक ऐसा नहीं होता, तब तक लोग अपनी जान गंवा सकते हैं।

क्या आप चाहते हैं कि AI आपकी जिंदगी में इतनी बड़ी भूमिका निभाए? या फिर क्या आप चाहते हैं कि इंसान ही इंसानों की मदद करें?

LEAVE A REPLY

Please enter your comment!
Please enter your name here