एआई का इस्तेमाल कब न करें , यह जानना भी जरूरी
रंजन
- 19 Feb 2026, 03:24 PM
- Updated: 03:24 PM
(सैम इलिंगवर्द, एडिनबरा नेपियर यूनिवर्सिटी)
एडिनबरा, 19 फरवरी (द कन्वरसेशन) कृत्रिम बुद्धिमत्ता (एआई) के प्रशिक्षण में आमतौर पर इस बात पर जोर दिया जाता है कि बेहतर परिणाम कैसे हासिल किए जाएं—बेहतर प्रॉम्प्ट कैसे लिखें, प्रश्न को कैसे परिष्कृत करें और सामग्री को अधिक तेजी से कैसे तैयार करें।
इस दृष्टिकोण के संदर्भ में एआई को केवल उत्पादकता बढ़ाने वाले औजार के रूप में देखा जाता है और सफलता को गति से मापा जाता है। हालांकि, विशेषज्ञों का कहना है कि यह सोच अधूरी है।
आलोचनात्मक एआई साक्षरता अलग प्रश्न उठाती है। इसमें "मैं इसका उपयोग कैसे करूं?" के बजाय "क्या मुझे इसका उपयोग करना भी चाहिए?" और "इसे तेज कैसे बनाऊं?" के बजाय "इस प्रक्रिया में मैं क्या खो रहा हूं?" के बारे में जानना बेहद जरूरी है।
एआई प्रणालियां उन पूर्वाग्रहों को साथ लेकर चलती हैं, जिन्हें अधिकतर उपयोगकर्ता देख नहीं पाते। वर्ष 2025 में 'ब्रिटिश न्यूज़पेपर आर्काइव' पर किए गए एक अध्ययन में पाया गया कि डिजिटल व्यवस्था वाले विक्टोरियनकालीन अखबार वास्तव में प्रकाशित सामग्री के 20 प्रतिशत से भी कम का प्रतिनिधित्व करते हैं। उपलब्ध नमूना राजनीतिक प्रकाशनों की ओर झुकाव रखता है और स्वतंत्र आवाज़ों को कम दर्शाता है। ऐसे में यदि कोई शोधकर्ता इसी आधार पर विक्टोरियन समाज के बारे में निष्कर्ष निकाले, तो वह अभिलेखागार में निहित विकृतियों को दोहरा सकता है। यही सिद्धांत आज के एआई उपकरणों को संचालित करने वाले डेटा पर भी लागू होता है।
साहित्य के शोधार्थी लंबे समय से मानते रहे हैं कि पाठ केवल वास्तविकता को प्रतिबिंबित नहीं करते, बल्कि उसे निर्मित भी करते हैं। 1870 का कोई समाचार लेख अतीत की खिड़की नहीं, बल्कि संपादकों, विज्ञापनदाताओं और मालिकों द्वारा गढ़ा गया प्रस्तुतीकरण होता है। एआई के परिणाम भी इसी तरह प्रशिक्षण डेटा के पैटर्न का परिष्कृत रूप होते हैं, जो विशेष विश्वदृष्टि और व्यावसायिक हितों को दर्शाते हैं। मानविकी हमें यह पूछना सिखाती है कि किसकी आवाज़ मौजूद है और किसकी नहीं है।
वर्ष 2023 में 'द लैन्सेट ग्लोबल हेल्थ' में प्रकाशित शोध में यह स्पष्ट हुआ। शोधकर्ताओं ने एआई से ऐसी छवियां बनवाने का प्रयास किया जिनमें अश्वेत अफ्रीकी डॉक्टर श्वेत बच्चों का इलाज करते दिख रहे हों। 300 से अधिक चित्र तैयार करने के बावजूद एआई इस उलटबांसी को प्रस्तुत नहीं कर सका और हर बार मरीजों को अश्वेत के रूप में दर्शाया। यह दर्शाता है कि प्रणाली प्रचलित छवियों को इतनी गहराई से आत्मसात कर चुकी थी कि वह वैकल्पिक कल्पना नहीं कर सकी।
विशेषज्ञों के अनुसार, समस्या केवल शैलीगत संकेतों तक सीमित नहीं है, बल्कि उन परिणामों तक है जो बिना जांच के पूर्वाग्रहों को आगे बढ़ाते हैं।
दार्शनिक माइका लॉट और विलियम हैसलबरगर का तर्क है कि एआई मित्र नहीं हो सकता, क्योंकि मित्रता के लिए दूसरे के हित की परवाह आवश्यक है। एआई के पास स्वयं का कोई आंतरिक हित नहीं होता; वह उपयोगकर्ता की सेवा के लिए बना है।
कंपनियां जब एआई को साथी के रूप में प्रस्तुत करती हैं, तो वे मानवीय संबंधों की जटिलता के बिना सहानुभूति का आभास देती हैं। यह संबंध एकतरफा और व्यावसायिक लेन-देन भर रह जाता है।
शिक्षकों, पत्रकारों और स्वास्थ्यकर्मियों के लिए यह जरूरी है कि वे तय करें कि एआई कब सीखने या निर्णय लेने में सहायक है और कब यह मानवीय विवेक का स्थान ले रहा है। 19वीं सदी के लुडाइट आंदोलन का उदाहरण देते हुए विशेषज्ञ कहते हैं कि वे प्रौद्योगिकी के विरोधी नहीं थे, बल्कि उसके अंधाधुंध तरीके से अपनाने के सामाजिक प्रभावों के प्रति सचेत थे।
आज एआई की मदद से लिए जा रहे निर्णय भर्ती, स्वास्थ्य, शिक्षा और न्याय जैसे क्षेत्रों को प्रभावित कर रहे हैं। यदि इन प्रणालियों का आलोचनात्मक मूल्यांकन नहीं किया गया, तो निर्णय की जिम्मेदारी ऐसे एल्गोरिद्म को सौंप दी जाएगी जिनकी सीमाएं अदृश्य हैं।
आखिरकार, आलोचनात्मक एआई साक्षरता केवल बेहतर प्रॉम्प्ट लिखने या कार्यप्रवाह को अनुकूलित करने के बारे में नहीं है, बल्कि यह जानने के बारे में है कि एआई का उपयोग कब करना है और कब उसे बिल्कुल अलग रखना है।
(द कन्वरसेशन) मनीषा रंजन
रंजन
1902 1524 एडिनबरा