HomeTECHNOLOGYAI, गोपनीयता और डेटा लीक: क्या आप व्हाट्सएप, इंस्टाग्राम और फेसबुक जैसे...

AI, गोपनीयता और डेटा लीक: क्या आप व्हाट्सएप, इंस्टाग्राम और फेसबुक जैसे प्लेटफॉर्म पर भरोसा कर सकते हैं? | प्रौद्योगिकी समाचार


नई दिल्ली: जैसे-जैसे तकनीक विकसित हो रही है, जनरेटिव एआई नौकरियों के सृजन के तरीके को बदल रहा है और विभिन्न उद्योगों को प्रभावित कर रहा है। लोग इस बात को लेकर चिंतित हैं कि क्या यह तकनीक रोजगार के लिए खतरा पैदा करती है। साथ ही, व्हाट्सएप, इंस्टाग्राम और फेसबुक जैसे सोशल मीडिया प्लेटफॉर्म से डेटा लीक होने से उपयोगकर्ता के भरोसे और बेहतर विनियमन की आवश्यकता पर सवाल उठते हैं। इसके अलावा, ऑनलाइन वित्तीय धोखाधड़ी एक बढ़ता हुआ मुद्दा है जिसे सरकार को और अधिक प्रभावी ढंग से संबोधित करने की आवश्यकता है।

हाल ही में एक साक्षात्कार में एनकोर के सीईओ और एचसीएल टेक्नोलॉजीज के पूर्व डिजिटल बिजनेस हेड आनंद बिरजेउन्होंने उन्नत प्रौद्योगिकियों से उत्पन्न अस्तित्वगत खतरों पर अपने विचार साझा किए।

जनरेटिव एआई रोजगार सृजन को कैसे प्रभावित कर रहा है?

AI नौकरी के परिदृश्य को नया आकार दे रहा है, लेकिन यह प्रतिस्थापन की एक सरल कहानी नहीं है। हम स्वास्थ्य सेवा, तकनीक, रचनात्मक क्षेत्रों और हर कार्यक्षेत्र में बड़े बदलाव देख सकते हैं, जिसमें AI दोहराव वाले और नीरस कार्यों को कम करके मौजूदा भूमिकाओं के दायरे को बढ़ा रहा है। हालाँकि, जहाँ नियमित कार्यों से जुड़ी कुछ भूमिकाएँ समाप्त हो सकती हैं, वहीं AI पूरी तरह से नई भूमिकाएँ, ज़िम्मेदारियाँ और पद भी बनाएगा जो वर्तमान में मौजूद नहीं हैं।

उद्यमों के साथ-साथ व्यक्तियों के लिए भी, परिवर्तन के इन समयों को नेविगेट करने की कुंजी अनुकूलन है। उनके अनुसार “हमें लोगों को प्रशिक्षित करने और एक ऐसी संस्कृति बनाने पर ध्यान केंद्रित करने की आवश्यकता है जहाँ अपस्किलिंग और रीस्किलिंग निरंतर हो। इस सांस्कृतिक बदलाव के लिए व्यक्तिगत मानसिकता में बदलाव की आवश्यकता है और इसे उद्यमों के लिए परिवर्तन प्रबंधन रणनीतियों का एक अनिवार्य हिस्सा होना चाहिए”।

दूरदर्शी उद्यम पहले से ही अपने लोगों को एआई द्वारा लाए जा रहे परिवर्तन के वास्तविक पैमाने को समझने और सराहने में मदद कर रहे हैं – और चुनौतियों के साथ-साथ उनके करियर में प्रगति के लिए इसके द्वारा प्रस्तुत अवसरों को भी समझने में मदद कर रहे हैं।

एआई नौकरियों के लिए अस्तित्व का खतरा नहीं है, जिससे कई लोग डरते हैं, हालांकि, यह हमें काम की प्रकृति को फिर से आविष्कार करने और इसकी पूरी क्षमता का दोहन करने की प्रक्रिया में व्यक्तियों के रूप में विकसित होने के लिए मजबूर करेगा। आप पहिये के साथ एक समानांतर रेखा खींच सकते हैं।

इसके आविष्कार से पहले भी मनुष्य यात्रा कर सकता था और सामान का परिवहन करता था, लेकिन पहिये ने हमें ऊर्जा और समय बचाकर अन्य क्षेत्रों पर ध्यान केंद्रित करने का अवसर दिया तथा हमारी सभ्यता के लिए प्रगति के नए रास्ते खोले।

एंड-टू-एंड एन्क्रिप्शन डेटा लीक को रोकने में विफल?

सोशल मीडिया (इंस्टाग्राम, फेसबुक और व्हाट्सएप) पर भरोसा इस समय एक बड़ा मुद्दा है, जो दुनिया भर में लाखों उपयोगकर्ताओं को प्रभावित कर रहा है, जिसमें हम सभी शामिल हैं। एन्क्रिप्शन मदद करता है, लेकिन यह पर्याप्त नहीं है; यह एक जटिल पहेली का सिर्फ़ एक टुकड़ा है। हमें एक बहुस्तरीय दृष्टिकोण की आवश्यकता है जिसमें पारदर्शिता, अनुपालन और जवाबदेही शामिल हो। हाल के दिनों में इस दिशा में बदलाव देखा गया है, जिसमें कंपनियाँ भौगोलिक स्थान के साथ-साथ उपयोगकर्ता डेटा का लाभ उठाने की योजना का खुलासा कर रही हैं।

जहाँ तक विनियमनों का सवाल है, हमें सही संतुलन खोजने की आवश्यकता है। उनके अनुसार, “हमें ऐसे ढाँचों की आवश्यकता है जो तकनीकी प्रगति की अनुमति देते हुए भी उपयोगकर्ताओं की सुरक्षा करें। इन ढाँचों को विभिन्न भौगोलिक क्षेत्रों की अनूठी जटिलताओं को संबोधित करना चाहिए, स्थानीय विनियमों और वैश्विक मानकों का अनुपालन करना चाहिए, और नवाचार और रचनात्मकता के लिए जगह छोड़ते हुए उपयोगकर्ता गोपनीयता की रक्षा करनी चाहिए”।

टेक इंडस्ट्री को आगे आकर ‘डिजाइन के हिसाब से गोपनीयता’ का दृष्टिकोण अपनाना चाहिए। इसका मतलब है कि उत्पादों और सेवाओं में शुरू से ही सुरक्षा के उपाय किए जाने चाहिए, न कि बाद में सोचे जाने चाहिए।

यह बात आज की दुनिया में पहले से कहीं ज़्यादा सच है, जहाँ पहचान की चोरी, गलत सूचना और हेरफेर के लिए AI का इस्तेमाल किया जा रहा है। आखिरकार, भरोसा बनाने के लिए तकनीकी कंपनियों, नियामकों और खुद उपयोगकर्ताओं के बीच गहन सहयोग की आवश्यकता होगी, और यह एक महत्वपूर्ण कारक है जिस पर विचार करना होगा क्योंकि हम AI दुनिया के अनुकूल डिजिटल चैनलों को फिर से डिज़ाइन करते हैं।

क्या हमें एआई के अस्तित्व के खतरे के बारे में चिंतित होना चाहिए?

हमें इन चेतावनियों को गंभीरता से लेना चाहिए। लेकिन तत्काल, ठोस जोखिमों और दीर्घकालिक, सट्टा चिंताओं के बीच अंतर करना भी महत्वपूर्ण है। आज हम जिन वास्तविक खतरों का सामना कर रहे हैं, वे एआई वर्चस्व के विज्ञान-फाई परिदृश्य नहीं हैं। वे अधिक सूक्ष्म हैं – एआई पूर्वाग्रह, गोपनीयता उल्लंघन, इको चैंबर और गलत सूचना का प्रसार जैसी चीजें। ये वास्तविक समस्याएं हैं जो अभी वास्तविक लोगों को प्रभावित कर रही हैं।

इन समस्याओं को हल करने के लिए हमें सहयोग की आवश्यकता है। यह ऐसी चीज़ नहीं है जिसे कोई एक कंपनी या कोई एक देश अकेले हल कर सकता है। उनके अनुसार, “हमें सरकारों, तकनीकी फर्मों और शिक्षाविदों को एक साथ काम करने की आवश्यकता है ताकि यह सुनिश्चित किया जा सके कि एआई के उपयोग से जुड़े क्षेत्रों के लिए नैतिकता, पारदर्शिता और अनुपालन के मानक तय किए जाएं। एआई के लाभों के साथ-साथ इससे जुड़े नुकसानों के बारे में सार्वजनिक शिक्षा भी महत्वपूर्ण है, ताकि सुरक्षित उपयोग सुनिश्चित किया जा सके”।

लेकिन बात यह है कि जब हम इन जोखिमों पर काम कर रहे हैं, तो हम यह नहीं भूल सकते कि AI कितना अच्छा कर सकता है। यह एक शक्तिशाली उपकरण है जो बड़ी वैश्विक समस्याओं को हल करने में मदद कर सकता है। हमें AI के साथ सावधान रहने की जरूरत है, लेकिन साथ ही इस बात को लेकर आशावान भी रहना चाहिए कि यह क्या हासिल कर सकता है। यह हमारी पीढ़ी के लिए एक बड़ी चुनौती है, और हमें इसके लिए कदम उठाने की जरूरत है।

डिजिटल धोखाधड़ी से निपटने में सरकार कहां पीछे रह गई?

ऑनलाइन वित्तीय धोखाधड़ी एक बढ़ती हुई चिंता है। जबकि सरकार ने प्रयास किए हैं, हम अभी भी पीछे चल रहे हैं। मुख्य चुनौती गति है – साइबर अपराधी तेजी से आगे बढ़ते हैं, और हमारे कानूनी और नियामक ढांचे अक्सर उनके साथ तालमेल बिठाने में संघर्ष करते हैं। जेन एआई जैसी आधुनिक तकनीकों के आगमन के साथ, साइबर अपराध परिष्कार, पैमाने और गति में बढ़ता जा रहा है।

विनियामक निकायों और सरकारी एजेंसियों को प्रौद्योगिकी कंपनियों के साथ मिलकर काम करना चाहिए और साइबर अपराधों के खिलाफ़ सर्वश्रेष्ठ तकनीकी प्रतिभा को सामने लाना चाहिए। उनके अनुसार, “हमें बॉक्स के बाहर सोचने की ज़रूरत है, उदाहरण के लिए, प्रौद्योगिकी कंपनियों और सरकारी एजेंसियों के बीच एक वास्तविक समय का खतरा साझा करने वाला प्लेटफ़ॉर्म बनाना चाहिए जो वित्तीय साइबर अपराध को पहचानने और रोकने में मदद कर सके”।

हमें एक अधिक सक्रिय रणनीति और कानूनी ढांचे को अपडेट करने की भी आवश्यकता है। पारंपरिक कानून आधुनिक साइबर अपराध से निपटने के लिए अपर्याप्त हैं और इससे निपटने में उदासीनता या गति की कमी हो सकती है।

डिजिटल साक्षरता भी बहुत ज़रूरी है, कई धोखाधड़ी सिर्फ़ इसलिए सफल हो जाती हैं क्योंकि लोगों को जोखिमों के बारे में जानकारी नहीं होती। यह बात भारत जैसे देश के लिए सही है, जहाँ ग्रामीण इलाकों और इसलिए ज़्यादातर आबादी तक इंटरनेट की व्यापक पहुँच एक नई घटना है।

संक्षेप में कहें तो वित्तीय साइबर अपराध के लिए एआई का इस्तेमाल किए जाने का जोखिम बहुत वास्तविक है। इससे प्रभावी ढंग से निपटने के लिए हमें बेहतर तकनीक, बेहतर विनियमन, बेहतर शिक्षा और विभिन्न क्षेत्रों में घनिष्ठ सहयोग की आवश्यकता है।

क्या सरकारों को एआई को विनियमित करना चाहिए?

मेरे विचार में, AI के लिए कुछ हद तक सरकारी निगरानी न केवल उचित है, बल्कि आवश्यक भी है। आदर्श रूप से सार्वजनिक-निजी भागीदारी के माध्यम से बनाई गई यह निगरानी AI की सुरक्षा और नैतिक उपयोग को सुनिश्चित करने के लिए आवश्यक है, भले ही यह तकनीक कार्य धाराओं में रचनात्मकता और नवाचार को शामिल करने के हमारे अभियान में सर्वव्यापी हो।

हमें एक ऐसे ढांचे की आवश्यकता है जो लचीला और अनुकूलनीय हो तथा पारदर्शिता, जवाबदेही और निष्पक्षता पर ध्यान केंद्रित करे। विनियामक दृष्टिकोण स्थानीय सरकारी निकायों पर बहुत अधिक निर्भर करेगा; हालाँकि, इसे स्तरीकृत किया जा सकता है ताकि निगरानी और विनियामक आवश्यकताओं का स्तर क्षमताओं और संभावित प्रभाव के सीधे आनुपातिक हो।

उदाहरण के लिए, विपणनकर्ताओं को उनकी सामग्री को अधिक आकर्षक बनाने में मदद करने के लिए उपयोग किए जाने वाले एआई को उसी स्तर की निगरानी की आवश्यकता नहीं होती है, जितनी कि स्वास्थ्य सेवा उद्योग के लिए बीमा दावों की प्रक्रिया में मदद करने वाले एआई को होती है।

उनके अनुसार, “हमें AI के व्यापक सामाजिक प्रभाव के बारे में भी सोचना चाहिए और नौकरी विस्थापन और डेटा गोपनीयता जैसे मुद्दों को हल करने के लिए सक्रिय कदम उठाने चाहिए। उन्हें अपनी दृष्टि में दृढ़ता से रखकर, हम यह सुनिश्चित कर सकते हैं कि AI को विनियमित करने के लिए विकसित की जा रही नीतियाँ जनता के सर्वोत्तम हित में हों और हमारे मूल्यों और मानवाधिकारों के अनुरूप हों”।

प्रभावी एआई विनियमन के लिए नीति निर्माताओं, उद्योग जगत के नेताओं और जनता के बीच निरंतर संवाद की आवश्यकता होगी। यह नवाचार और जिम्मेदार विकास के बीच सही संतुलन बनाने, प्रौद्योगिकी की पूरी क्षमता का दोहन करने और साथ ही हमारी सभ्यता को इसके दुष्प्रभावों से बचाने के बारे में है।

क्या एआई और रोबोटिक्स मानवता के लिए खतरा हैं?

देखिए, ‘टर्मिनेटर’ बेहतरीन मनोरंजन के लिए है, लेकिन हम उस वास्तविकता से बहुत दूर हैं। पहली बार AI निर्णय ले सकता है और ‘टूल’ से ‘एजेंट’ में विकसित हो गया है और वास्तविक और तत्काल जोखिम AI द्वारा दुनिया पर कब्ज़ा करने के बारे में नहीं है, बल्कि यह है कि मनुष्य कैसे उस विशाल क्षमता का दुरुपयोग कर सकते हैं जो यह लाता है। वर्तमान में, हमें गोपनीयता के उल्लंघन, स्वायत्त हथियारों, गलत सूचना और भ्रामक सूचनाओं के लिए AI के उपयोग के बारे में अधिक चिंतित होना चाहिए।

उनके अनुसार, “हम इसके विकास को आकार देने के एक महत्वपूर्ण बिंदु पर हैं, प्रौद्योगिकी के सर्वव्यापी होने से कुछ क्षण पहले। हमें सुरक्षा और वैश्विक शासन ढांचे को प्राथमिकता देने, स्पष्ट नैतिक दिशा-निर्देश और विफलता-सुरक्षा तंत्र बनाने, एआई साक्षरता में निवेश करने और महत्वपूर्ण निर्णयों पर मनुष्यों के नियंत्रण को बनाए रखने की आवश्यकता है”।

रोकथाम का मतलब है सक्रिय होना। लक्ष्य AI का बुद्धिमानी से उपयोग करना होना चाहिए। हमें इससे डरना नहीं चाहिए, लेकिन हमें इसे सही दिशा में निर्देशित करने की आवश्यकता है। यह प्रगति और जिम्मेदारी के बीच उस मधुर बिंदु को खोजने के बारे में है।

साइबर हमलों के प्रति एआई सैन्य प्रणालियाँ कितनी संवेदनशील हैं?

यह एक महत्वपूर्ण प्रश्न है। जैसे-जैसे AI हमारे मौजूदा बुनियादी ढांचे के साथ अधिक निकटता से एकीकृत होता जा रहा है, ऐसे कुछ क्षेत्र हैं जहाँ यह सबसे अधिक अराजकता पैदा करने की क्षमता रखता है। उनके अनुसार, सैन्य प्रणालियों में AI उन क्षेत्रों में से एक है जहाँ हमें अत्यधिक सावधानी से काम करने की आवश्यकता है।

डेटा विषाक्तता से लेकर निर्णयों में हेरफेर करने और संवेदनशील डेटा की चोरी और अनधिकृत पहुंच के लिए प्रतिकूल हमलों तक, ऐसे कई तरीके हैं जिनसे एआई एकीकरण सेना के लिए कमजोरियों और चुनौतियों का कारण बन सकता है और इस प्रक्रिया में महत्वपूर्ण क्षति का कारण बन सकता है।

उदाहरण के लिए, इवेशन अटैक का इस्तेमाल कुछ पिक्सल के रंग को इस तरह से बदलने के लिए किया जा सकता है कि वह मानवीय आंखों के लिए अदृश्य हो। हालाँकि, AI अब छवियों को गलत तरीके से वर्गीकृत करेगा और ऐसा आत्मविश्वास के साथ करेगा। इसका इस्तेमाल चेहरे की पहचान या लक्ष्य पहचान में शामिल AI सिस्टम पर हमला करने के लिए किया जा सकता है, जिसके परिणाम विनाशकारी हो सकते हैं।

तो हम इससे कैसे निपटें? हमें सर्वश्रेष्ठ साइबर सुरक्षा और मजबूत एआई सिस्टम की आवश्यकता है जो मानव सत्यापन के लिए अपने निर्णयों को स्पष्ट कर सकें। यह एक ऐसा क्षेत्र है जहाँ सरकारी एजेंसियों को सलाह दी जाती है कि वे प्रौद्योगिकी कंपनियों के साथ मिलकर एआई सिस्टम लागू करें जो हेरफेर की पहचान कर सकें और उसका विरोध कर सकें, संवेदनशील डिजिटल बुनियादी ढांचे के लिए जीरो ट्रस्ट आर्किटेक्चर ला सकें और महत्वपूर्ण स्थितियों के लिए निर्णय लेने की प्रक्रिया में मनुष्यों को शामिल कर सकें।

एआई को सैन्य निर्णय लेने में सहायता करनी चाहिए, न कि मानवीय निर्णय का स्थान लेना चाहिए।

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Must Read

spot_imgspot_imgspot_imgspot_img