कल्पना कीजिए—एक ऐसी दुनिया जहां आपकी हर बात, हर विचार, हर निजी क्षण किसी अनजान एल्गोरिथम के हाथों में चला जाए। जहां आपकी आवाज़, आपकी तस्वीरें, आपके नाम, आपके फोन नंबर सब कुछ बिना आपकी मर्जी के चुरा लिया जाए, बेच दिया जाए, इस्तेमाल किया जाए। यह सिर्फ एक डरावनी फिल्म की कहानी नहीं है—यह असलियत है। और अब वो कंपनी जो दुनिया को बदल रही है, OpenAI, खुद कनाडा सरकार के निशाने पर आ गई है। कनाडाई अधिकारियों ने दावा किया है कि OpenAI ने न सिर्फ संघीय बल्कि प्रांतीय गोपनीयता कानूनों को धत्ता बताते हुए अपने AI मॉडलों को प्रशिक्षित किया है। एक ऐसी जांच ने उजागर किया है जो आपके रोंगटे खड़े कर देगी।
फिलिप डुफ्रेसने, कनाडा के गोपनीयता आयुक्त, ने अपने साथियों के साथ मिलकर OpenAI के खिलाफ एक ऐसी जांच चलाई है जो हैरान करने वाली सच्चाई सामने लाई है। अल्बर्टा, क्यूबेक और ब्रिटिश कोलंबिया के अधिकारियों ने पाया कि OpenAI ने व्यक्तिगत सूचना संरक्षण और इलेक्ट्रॉनिक दस्तावेज़ अधिनियम (PIPEDA) जैसे कानूनों की धज्जियां उड़ा दी हैं। कंपनी ने बड़ी मात्रा में व्यक्तिगत जानकारी एकत्र की—नाम, फोन नंबर, ईमेल—और बिना किसी सुरक्षा उपाय के उन्हें अपने AI मॉडलों को प्रशिक्षित करने के लिए इस्तेमाल किया। क्या आप जानते हैं कि चैटजीपीटी के साथ आपकी बातचीत भी प्रशिक्षण डेटा का हिस्सा बन सकती है? और सबसे भयानक बात—आपके पास उस डेटा तक पहुंचने, उसे सुधारने या हटाने का कोई अधिकार नहीं है।
लेकिन यह सिर्फ शुरुआत है। जांच में पाया गया कि OpenAI ने तीसरे पक्ष के डेटा का इस्तेमाल किया है जिसमें ऐसे व्यक्तिगत विवरण शामिल हैं जिनके बारे में लोगों को शायद जानकारी भी नहीं थी। कंपनी ने सहमति लेने में भी पूरी तरह से विफल रही। चैटजीपीटी के शुरुआती संस्करणों में तो यह तक लिखा था कि आपकी बातचीत प्रशिक्षण के लिए इस्तेमाल की जा सकती है—लेकिन क्या आपने कभी उस छोटे से नोटिस पर ध्यान दिया था? शायद नहीं। क्योंकि ज्यादातर लोग तो बस सवाल पूछने में ही लगे रहते हैं।
और फिर आया वो दिन जब सब कुछ बदल गया—फरवरी 2026 में टम्बलर रिज में हुई सामूहिक गोलीबारी। उस घटना ने OpenAI के खिलाफ एक नया मोर्चा खोल दिया। नियामकों ने पाया कि कंपनी ने 2025 में ही उस शूटर के खाते से आई ऐसी चेतावनियों को नजरअंदाज कर दिया था जो वास्तविक दुनिया की हिंसा की ओर इशारा कर रही थीं। क्या OpenAI ने सचमुच कानून प्रवर्तन को धोखा दिया? क्या उनकी लापरवाही ने उस त्रासदी को और भी भयानक बना दिया?
OpenAI ने अब कनाडाई कानूनों का पालन करने के लिए कदम उठाने की बात कही है। उन्होंने पुराने मॉडलों को सेवानिवृत्त कर दिया है और नए फिल्टरिंग टूल लगाए हैं जो व्यक्तिगत जानकारी को पहचानकर उसे छिपा देते हैं। उन्होंने चैटजीपीटी के साइन-आउट संस्करण में एक नया नोटिस जोड़ने पर भी सहमति व्यक्त की है जिसमें साफ लिखा होगा कि आपकी बातचीत प्रशिक्षण के लिए इस्तेमाल की जा सकती है। लेकिन क्या यह काफी है? क्या यह देर से उठाया गया कदम है?
सच्चाई यह है कि AI की दुनिया में गोपनीयता एक ऐसा विषय है जिसे अभी तक पूरी तरह से समझा नहीं गया है। जब तक कानून पक्के नहीं होंगे, तब तक कंपनियां अपनी मर्जी से चलती रहेंगी। और हम, आम लोग, बस उनके खेल के मोहरे बनकर रह जाएंगे।
कनाडा की जांच ने सिर्फ OpenAI को निशाना नहीं बनाया है—उसने पूरे AI उद्योग के सामने एक बड़ा सवाल खड़ा कर दिया है। क्या हम अपनी निजता को पूरी तरह से खो चुके हैं? क्या हमारी आवाज़, हमारे विचार, हमारे सपने अब किसी एल्गोरिथम के हाथों में खेलने के लिए तैयार हैं?
और सबसे बड़ा सवाल—जब तक हमें पता चलेगा तब तक बहुत देर हो चुकी होगी।
AI की दुनिया में गोपनीयता का मुद्दा इतना गंभीर है कि अब सिर्फ कानून ही नहीं, बल्कि जनता का दबाव भी जरूरी है। OpenAI जैसी कंपनियां जब तक मुनाफे के पीछे भागती रहेंगी, तब तक हमारे अधिकारों की रक्षा करना मुश्किल होगा। क्या आप तैयार हैं अपने अधिकारों के लिए लड़ने को? क्या आप अपनी निजता की रक्षा के लिए कुछ करेंगे?
A dark, cinematic scene of a shadowy figure typing on a laptop in a dimly lit room, surrounded by floating holographic data streams and warning signs, representing AI surveillance and privacy violations, shot in moody blue and black tones with sharp lighting.

