GS Paper 2 — शासन, संविधान, न्यायपालिका:
- न्यायिक सुधारों से संबंधित मुद्दे
- पारदर्शिता और जवाबदेही सुनिश्चित करने के उपाय
- e-Governance एवं डिजिटल न्याय व्यवस्था
GS Paper 3 — विज्ञान और प्रौद्योगिकी:
- उभरती हुई तकनीकें और इनका शासन में उपयोग
- आर्टिफिशियल इंटेलिजेंस का प्रभाव
- डाटा सुरक्षा और नैतिकता से जुड़े मुद्दे
- साइबर सुरक्षा, AI नियमन, और तकनीकी नीति
चर्चा के बिंदु:
इस साल जुलाई में केरल हाईकोर्ट ने एक महत्वपूर्ण पहल की है, इसने जिला न्यायपालिका में आर्टिफिशियल इंटेलिजेंस (AI) के उपयोग को लेकर दिशा-निर्देश जारी किए। यह नीति भारत की पहली ऐसी पहल है जो न्यायिक प्रक्रियाओं में एआई के उपयोग को सीधे तौर पर संबोधित करती है और इसके लिए सख्त सुरक्षा उपाय भी तय करती है।
इसके अंतर्गत दस्तावेजों का अनुवाद करना फाइलों में त्रुटियाँ ढूँढना आदि जैसे काम एआई उपकरणों के मदद से काफी तेज़ और ज़्यादा कुशल होने की उम्मीद है। यह तब और भी आवश्यक हो जाता है जब लगभग पाँच करोड़ मामले लंबित हो। ऐसे में, एआई का सही और सुरक्षित उपयोग न्याय व्यवस्था में गति लाने का एक महत्वपूर्ण साधन बन सकता है।
हालाँकि इसके कुछ समस्याएँ मौजूद हैं जैसे:
- एआई-सक्षम अनुवाद और ट्रांसक्रिप्शन, पूरी तरह से जोखिम से मुक्त नहीं हैं। उदाहरण के लिए, भारत के सुप्रीम कोर्ट के एक न्यायाधीश ने बताया कि “leave granted” का हिंदी में अनुवाद “छुट्टी स्वीकार” (chhutti sweekaar) कर दिया गया, जिसका अर्थ है “छुट्टी मंज़ूर”।
- Noel Anthony Clarke बनाम Guardian News & Media Ltd. (2025) EWHC 550 (KB) मामले में, एक एआई ट्रांसक्रिप्शन टूल ने बार-बार वादी का नाम “Noel” को “no” के रूप में ट्रांसक्राइब किया।
- OpenAI का Whisper, जो एक एआई-आधारित स्पीच रिकग्निशन सिस्टम है, के बारे में बताया गया कि वह कभी-कभी पूरे वाक्य और शब्द खुद बना लेता है या “मतिभ्रम” करता है, खासकर जब लोग बोलते समय शब्दों के बीच लंबा विराम लेते हैं।
- Journal of Empirical Legal Studies में प्रकाशित एक अध्ययन में पाया गया कि कानूनी एलएलएम (Large Language Models) कभी-कभी काल्पनिक केस कानून बना लेते हैं और दावों को सिद्ध करने के लिए गलत स्रोतों का हवाला देते हैं।
- यह निर्णय प्रक्रिया केवल नियम-आधारित निष्कर्षों तक सीमित कर सकता हैं, जिसमें मानवीय विवेक (विशेष संदर्भ और प्रासंगिक पूर्व निर्णयों का महत्व , जो न्यायिक निर्णयों को प्रभावित करते हैं) अनदेखा रह जाते हैं।
वर्तमान में उपयोग में लिए जा रहे AI का आलोचनात्मक विवरण
- फिलहाल कुछ एआई आधारित बाज़ार उपकरण — जैसे मौखिक बहसों और गवाहों के बयानों का ट्रांसक्रिप्शन , अदालतों में परीक्षण के तौर पर उपयोग में लाए जा रहे हैं। हालाँकि ये प्रयोग अभी शुरुआती चरण में हैं, लेकिन चिंता की बात यह है कि इनका इस्तेमाल बिना किसी स्पष्ट समय-सीमा, सफलता के मानदंड या संवेदनशील और व्यक्तिगत डेटा के उपयोग, संग्रहण और पहुँच के स्पष्ट नियमों के किया जा रहा है। ऐसी स्थिति में, इन पायलट परियोजनाओं की शुरुआत से पहले पूरी सतर्कता और सोच-समझ के साथ कदम उठाना बेहद ज़रूरी है, ताकि संभावित जोखिमों को समय रहते पहचाना और नियंत्रित किया जा सके।
- इन परीक्षणों के ज़रिए अदालतों में एआई टूल्स की आदत पड़ सकती है, लेकिन इन टूल्स को स्थायी रूप से अपनाने की कोई साफ़ योजना नहीं बनी है। इसके अलावा, ऐसी नई तकनीकों के लिए मज़बूत इंटरनेट और बेहतर हार्डवेयर जैसी बुनियादी ज़रूरतें भी पूरी होनी चाहिए।
- अगर हम अदालतों में एआई सेवाओं के लिए जारी की गई निविदाओं पर नज़र डालें, तो यह साफ़ होता है कि भले ही एआई को अपनाने में सतर्कता दिखाई जा रही है, लेकिन नैतिक और कानूनी जोखिमों से निपटने के लिए अदालतों ने अभी तक कोई मज़बूत जोखिम प्रबंधन प्रणाली नहीं बनाई है।
समस्या को दूर करने हेतु कुछ कदम
- कुछ जगहों पर सेवानिवृत्त न्यायाधीशों, वकीलों और अनुवादकों द्वारा एआई से अनुवादित फ़ैसलों की मैन्युअल जाँच की जाती है, जो एक सकारात्मक कदम है। फिर भी, एआई प्रणालियाँ उन डेटा से सीखती हैं जो उन्हें मिलते हैं, और जब ये किसी नए संदर्भ या जानकारी का सामना करती हैं, तो ग़लतियाँ होने की संभावना बनी रहती है।
- विशेषज्ञों का कहना है कि एलएलएम (Large Language Models) में “मतिभ्रम” यानी कल्पना से तथ्य गढ़ लेना, एक तकनीकी खामी नहीं बल्कि उनकी कार्यप्रणाली का हिस्सा है। इसलिए, जहाँ भी इनका उपयोग किया जाए — विशेषकर उच्च जोखिम वाले मामलों में — वहाँ मानवीय निगरानी और सतर्कता बेहद आवश्यक है।
- अदालतों को प्रस्तावित एआई प्रणाली की विश्वसनीयता और कार्य के अनुकूलता का मूल्यांकन करने के लिए मानकीकृत खरीद (प्रोक्योरमेंट) दिशा-निर्देश अपनाने की आवश्यकता है। खरीद से पहले उठाए जाने वाले कदम अदालतों को यह स्पष्ट रूप से समझने में मदद करेंगे कि वास्तविक समस्या क्या है और क्या एआई वास्तव में उसका सबसे उपयुक्त समाधान है। प्रोक्योरमेंट फ्रेमवर्क अदालतों को तकनीकी मानदंडों — जैसे कि व्याख्यात्मकता (explainability), डेटा प्रबंधन और जोखिम न्यूनीकरण — के मूल्यांकन में मार्गदर्शन प्रदान कर सकते हैं।
निगरानी एवं समन्वय के अंतर्गत ई-कोर्ट्स
इसमें अंतर्गत निम्न कार्य का निष्पादन:
- ई-कोर्ट्स के द्वारा मानक नियम और तकनीकी ढाँचा (guidelines and frameworks) तैयार किए गए हैं, ताकि अदालतें डिजिटल तकनीक को अपनाने में सही और पारदर्शी फैसले ले सकें।
ये अदालतों को ये समझने में मदद करते हैं कि कौन-सा टेक्नोलॉजी वाला सिस्टम या कंपनी (vendor) अच्छा काम कर रही है और कौन नहीं।

ई-कोर्ट्स परियोजना के लाभ:
एआई के उपयोग और अपनाने पर निर्णय लेने में सहायता देने के लिए इस प्रकार की संस्थागत व्यवस्था तकनीकी विशेषज्ञता की कमी को दूर करने का एक प्रभावी तरीका हो सकती है। समर्पित विशेषज्ञ, व्यापक योजना का हिस्सा बनकर, एआई उपकरणों को अपनाने की दिशा में अदालतों को अधिक स्पष्ट और व्यावहारिक मार्गदर्शन प्रदान कर सकते हैं।
AI निगरानी हेतु विश्व स्टार पर उठाये गये कदम:
- यूरोपीय संघ का AI एक्ट (EU AI Act)
- यूरोप ने 1 अगस्त 2024 को एक नियम — AI Act लागू किया— यह दुनिया में सबसे पहला और बड़ा AI‑विशेष कानून है।
- कैसे काम करता है? यह AI सिस्टम को उनके जोखिम के आधार पर चार समूहों (अत्यधिक खतरनाक, उच्च‑जोखिम, सीमित‑जोखिम और न्यून‑जोखिम) में बांटता है।
- यूरोप में एक नया European Artificial Intelligence Board बनाया गया है, जो यह सुनिश्चित करेगा कि सभी देश नियमों का पालन करें।
2. अंतरराष्ट्रीय संधियाँ और सहयोग
- सेफ़्टी समिट्स (Safety Summits):
- नवंबर 2023 में यूनाइटेड किंगडम (Bletchley पार्क में) हुआ पहला AI Safety Summit, जहाँ 28 देशों ने Bletchley Declaration पर सहमति जताई। इसमें कहा गया कि AI “मानव‑केंद्रित, भरोसेमंद और ज़िम्मेदार” होना चाहिए।
- मई 2024 में कोरिया (सियोल) में दूसरा AI समिट हुआ, जहाँ Seoul Declaration को अपनाया गया। इसमें देशों ने अंतरराष्ट्रीय सहयोग, मानवीय दृष्टिकोण, और AI के सुरक्षित, समावेशी विकास पर जोर दिया।
निष्कर्ष:
जैसे-जैसे अदालतें एआई को अपनाने की दिशा में आगे बढ़ रही हैं, यह ज़रूरी है कि न्याय व्यवस्था में एआई के अंतिम उद्देश्य — न्याय के उद्देश्यों की पूर्ति — को नज़रअंदाज़ न किया जाए। इस तेज़ी से बदलते तकनीकी परिदृश्य में, अदालतों में एआई के उपयोग और उसे अपनाने से जुड़े स्पष्ट दिशानिर्देश होना आवश्यक है, ताकि न्यायिक प्रणाली को अधिक प्रभावी बनाने की कोशिश में उस सूक्ष्म तर्कशीलता और मानवीय निर्णय क्षमता को क्षति न पहुँचे जो निर्णय प्रक्रिया की मूल आत्मा है।
UPSC MAINS PRACTICE QUESTION:
“भारत की न्यायपालिका में आर्टिफिशियल इंटेलिजेंस (AI) के समावेश से न्याय प्रक्रिया की दक्षता और पारदर्शिता में वृद्धि की संभावनाएँ हैं, परंतु इससे जुड़े नैतिक और तकनीकी जोखिमों को अनदेखा नहीं किया जा सकता। चर्चा करें। साथ ही, वैश्विक अनुभवों से भारत क्या सीख सकता है, स्पष्ट कीजिए।”
स्रोत: The Hindu
क्या आपको उपयोगी लगा?
रिवीजन के लिए बुकमार्क करें, मुख्य परीक्षा प्रश्न का अभ्यास करें, और
अपने साथी अभ्यर्थियों के साथ साझा करें! धन्यवाद 🙏