यूरोपीय संघ का AI अधिनियम लागू, कंपनियों पर बढ़ेगी जवाबदेही

EU AI Act: आर्टिफिशियल इंटेलिजेंस (AI) का तेजी से बढ़ता उपयोग हमारे जीवन के हर पहलू को प्रभावित कर रहा है. इसके साथ ही, इसके नैतिक और कानूनी पहलुओं पर बहस भी बढ़ गई है. इसी को ध्यान में रखते हुए, यूरोपीय संघ (EU) ने AI को विनियमित करने के लिए एक व्यापक कानूनी ढांचा तैयार किया है, जिसे 'AI अधिनियम' (AI Act) के नाम से जाना जाता है.

By Rajeev Kumar | August 4, 2025 7:13 AM

What Is EU AI Act: यूरोपीय संघ ने कृत्रिम बुद्धिमत्ता (AI) के नियमन में एक नया अध्याय जोड़ते हुए अपना बहुप्रतीक्षित AI अधिनियम अब आधिकारिक तौर पर लागू कर दिया है। यह दुनिया का पहला और सबसे व्यापक AI कानून है, जिसका सीधा और बड़ा असर यूरोपीय संघ के सभी 27 सदस्य देशों में AI तकनीक विकसित करने और उपयोग करने वाली कंपनियों पर पड़ेगा। इस नए नियम के तहत, कंपनियों को अपने AI सिस्टम को और अधिक सुरक्षित, पारदर्शी और जवाबदेह बनाना अब कानूनी तौर पर अनिवार्य होगा। इस ऐतिहासिक कदम का मुख्य लक्ष्य लोगों के मौलिक अधिकारों और उनकी निजता की रक्षा करना है, खासकर उन उच्च जोखिम वाली AI प्रणालियों के संदर्भ में जो स्वास्थ्य, न्याय या सार्वजनिक सुरक्षा जैसे संवेदनशील क्षेत्रों में उपयोग होती हैं। यह कानून AI के भविष्य को आकार देगा, जहाँ नवाचार के साथ-साथ नैतिक और कानूनी जिम्मेदारियां भी सर्वोपरि होंगी।

पृष्ठभूमि

आर्टिफिशियल इंटेलिजेंस (AI) का तेजी से बढ़ता उपयोग हमारे जीवन के हर पहलू को प्रभावित कर रहा है। इसके साथ ही, इसके नैतिक और कानूनी पहलुओं पर बहस भी बढ़ गई है। इसी को ध्यान में रखते हुए, यूरोपीय संघ (EU) ने AI को विनियमित करने के लिए एक व्यापक कानूनी ढांचा तैयार किया है, जिसे ‘AI अधिनियम’ (AI Act) के नाम से जाना जाता है। यह दुनिया का पहला ऐसा कानून है जिसका उद्देश्य AI के जिम्मेदार विकास और उपयोग को बढ़ावा देना है, साथ ही उपभोक्ताओं के अधिकारों और सुरक्षा को सुनिश्चित करना है।

यूरोपीय आयोग ने अप्रैल 2021 में AI पर पहला EU कानून प्रस्तावित किया था। इस पर यूरोपीय संसद ने 13 मार्च, 2024 को मतदान किया और इसे बहुमत से पारित कर दिया। यह अधिनियम 1 अगस्त, 2024 को लागू हुआ है। हालांकि, इसके प्रावधान धीरे-धीरे अगले 6 से 36 महीनों में लागू होंगे। कुछ प्रतिबंध और AI साक्षरता से संबंधित दायित्व 2 फरवरी, 2025 से लागू हो गए हैं। सामान्य उद्देश्य वाले AI (GPAI) मॉडल पर नियम 2 अगस्त, 2025 से लागू होंगे। उच्च-जोखिम वाले AI सिस्टम के लिए पूर्ण अनुपालन 2 अगस्त, 2026 तक आवश्यक होगा।

AI अधिनियम के मुख्य प्रावधान

यह अधिनियम AI प्रणालियों को उनके जोखिम के स्तर के आधार पर वर्गीकृत करता है और उसी के अनुसार नियम लागू करता है। यह एक ‘जोखिम-आधारित दृष्टिकोण’ अपनाता है, जिसका अर्थ है कि AI एप्लीकेशन जितना अधिक जोखिम भरा होगा, उसे उतनी ही अधिक जांच का सामना करना पड़ेगा।

  • अस्वीकार्य जोखिम (Unacceptable Risk)

कुछ AI प्रणालियों को ‘अस्वीकार्य जोखिम’ वाली श्रेणी में रखा गया है और उन पर पूरी तरह से प्रतिबंध लगा दिया गया है। इनमें वे प्रणालियां शामिल हैं जो मानवीय व्यवहार में हेरफेर करती हैं, लोगों की कमजोरियों का फायदा उठाती हैं, या सामाजिक स्कोरिंग प्रणाली (social scoring systems) के लिए उपयोग की जाती हैं। इसमें पुलिसिंग, स्कूलों और कार्यस्थलों में भावनात्मक पहचान वाली प्रणालियों का उपयोग, और बायोमेट्रिक पहचान प्रणालियों का उपयोग भी शामिल है जो व्यक्ति की नस्ल, धर्म या यौन रुझान का आकलन करती हैं। हालांकि, गंभीर अपराधों जैसे अपहरण या आतंकवाद के मामलों में कुछ अपवादों के साथ बायोमेट्रिक पहचान के उपयोग की अनुमति है, लेकिन इसके लिए न्यायिक मंजूरी आवश्यक होगी।

  • उच्च जोखिम (High Risk)

उच्च-जोखिम वाले AI सिस्टम वे हैं जो स्वास्थ्य, सुरक्षा, मौलिक अधिकारों और लोकतंत्र को महत्वपूर्ण संभावित नुकसान पहुंचा सकते हैं। इनमें चिकित्सा उपकरण, महत्वपूर्ण बुनियादी ढांचे (जैसे पानी या विद्युत नेटवर्क), शिक्षा और रोजगार में उपयोग होने वाले AI सिस्टम, और कानून प्रवर्तन में उपयोग होने वाले कुछ AI सिस्टम शामिल हैं। इन प्रणालियों को सख्त नियमों का पालन करना होगा, जिनमें शामिल हैं:

    • मौलिक अधिकारों पर जोखिम मूल्यांकन करना।
    • कर्मचारियों के लिए AI साक्षरता सुनिश्चित करना।
    • पारदर्शिता और उपयोगकर्ताओं को स्पष्ट जानकारी प्रदान करना।
    • मानवीय निगरानी सुनिश्चित करना।
    • डेटा गुणवत्ता और साइबर सुरक्षा उपायों को लागू करना।
    • तकनीकी दस्तावेज बनाए रखना और स्वचालित रूप से लॉग जनरेट करना।
    • बाजार में आने से पहले अनुरूपता मूल्यांकन (conformity assessments) से गुजरना।

इस श्रेणी में आने वाले AI सिस्टम, जैसे कि डीपफेक या चैटबॉट, के लिए केवल पारदर्शिता संबंधी दायित्व होते हैं। इन प्रणालियों को उपयोगकर्ताओं को यह बताना होगा कि वे AI के साथ बातचीत कर रहे हैं और यदि सामग्री AI द्वारा बनाई गई है, तो उसका खुलासा करना होगा।

  • न्यूनतम या कोई जोखिम नहीं (Minimal or No Risk)

अधिकांश AI सिस्टम इस श्रेणी में आते हैं, जैसे कि AI-सक्षम वीडियो गेम या स्पैम फिल्टर। इन पर AI अधिनियम के तहत कोई विशेष नियम लागू नहीं होते हैं।

  • सामान्य उद्देश्य AI (General Purpose AI – GPAI)

ChatGPT जैसे बड़े AI मॉडल जो विभिन्न कार्य कर सकते हैं, उन्हें भी इस अधिनियम के तहत विनियमित किया गया है। इनके प्रदाताओं को पारदर्शिता, कॉपीराइट नियमों का पालन और प्रशिक्षण डेटा का सारांश प्रकाशित करना होगा। यदि ये मॉडल “प्रणालीगत जोखिम” पैदा करते हैं, तो उनका गहन परीक्षण किया जाएगा।

जवाबदेही और अनुपालन

AI अधिनियम AI प्रदाताओं और deployers के लिए स्पष्ट जवाबदेही सुनिश्चित करता है। यूरोपीय AI कार्यालय (European AI Office) और सदस्य देशों के अधिकारी इस अधिनियम को लागू करने, निगरानी करने और लागू करवाने के लिए जिम्मेदार होंगे। यूरोपीय AI बोर्ड, वैज्ञानिक पैनल और सलाहकार फोरम AI अधिनियम के शासन को निर्देशित और सलाह देंगे।

नियमों का पालन न करने वाली कंपनियों पर भारी जुर्माना लगाया जा सकता है। यह जुर्माना कंपनी के वार्षिक वैश्विक कारोबार का 7% या 3. 5 करोड़ यूरो (लगभग 3. 82 करोड़ डॉलर), जो भी अधिक हो, तक हो सकता है। छोटी और मध्यम आकार की कंपनियों (SMEs) के लिए जुर्माने सीमित रखे जाएंगे। नागरिकों को यह अधिकार दिया गया है कि वे AI सिस्टम के कथित उल्लंघन के खिलाफ शिकायत दर्ज करा सकें।

व्यापक प्रभाव और संभावित परिणाम

यूरोपीय संघ का AI अधिनियम दुनिया भर में AI विनियमन के लिए एक बेंचमार्क स्थापित करने की उम्मीद है, ठीक वैसे ही जैसे GDPR डेटा गोपनीयता के लिए एक मानक बन गया है। यह अन्य देशों को भी AI के जिम्मेदार विकास और उपयोग के लिए इसी तरह के ढांचे अपनाने के लिए प्रेरित कर सकता है।

AI अधिनियम का उन कंपनियों पर सीधा प्रभाव पड़ेगा जो AI सिस्टम बनाती, बेचती या उपयोग करती हैं, खासकर जो यूरोप में काम करती हैं। इन कंपनियों को अधिनियम की आवश्यकताओं का पालन करने के लिए अपने AI सिस्टम को अनुकूलित करने के लिए अतिरिक्त लागत वहन करनी पड़ सकती है। इससे नियामक जटिलता और प्रशासनिक बोझ बढ़ सकता है, जिससे यूरोप में AI की प्रतिस्पर्धात्मकता पर नकारात्मक प्रभाव पड़ने की चिंताएं भी व्यक्त की गई हैं।

कंपनियों को लगातार AI सिस्टम के जोखिमों का आकलन करने और उन्हें कम करने के लिए प्रभावी साइबर सुरक्षा उपाय लागू करने की आवश्यकता होगी। उन्हें AI साक्षरता को बढ़ावा देना होगा और सुनिश्चित करना होगा कि उनके कर्मचारी AI सिस्टम को जिम्मेदारी से उपयोग करने के लिए प्रशिक्षित हों।

इस अधिनियम का लक्ष्य AI के उपयोग से लोगों और व्यवसायों के मौलिक अधिकारों को सुनिश्चित करना है। यह मानव-केंद्रित फोकस के साथ मूल अधिकारों की रक्षा करता है और भेदभाव को रोकता है। इससे वैश्विक स्तर पर भरोसेमंद और जिम्मेदार AI को बढ़ावा मिलेगा।

Disclaimer: शेयर बाजार से संबंधित किसी भी खरीद-बिक्री के लिए प्रभात खबर कोई सुझाव नहीं देता. हम बाजार से जुड़े विश्लेषण मार्केट एक्सपर्ट्स और ब्रोकिंग कंपनियों के हवाले से प्रकाशित करते हैं. लेकिन प्रमाणित विशेषज्ञों से परामर्श के बाद ही बाजार से जुड़े निर्णय करें.