एआई प्रणाली वास्तव में चीजों को 'सीखती' नहीं है - इसे जान लेंगे तो उपयोग में मिलेगी मदद
(द कन्वरसेशन) देवेंद्र दिलीप
- 08 Mar 2025, 05:34 PM
- Updated: 05:34 PM
(केई रीमर और सैंड्रा पीटर, सिडनी विश्वविद्यालय)
सिडनी, आठ मार्च (द कन्वरसेशन) क्या होगा यदि हमने आपसे कहा कि चैटजीपीटी जैसी कृत्रिम मेधा (एआई) प्रणाली वास्तव में चीजों को सीखती नहीं है? हमने जिन लोगों से बात की, उनमें से कई लोग यह सुनकर वाकई हैरान रह गए।
यहां तक कि एआई प्रणाली भी अक्सर आपको विश्वास के साथ बतायेगी कि ये सीखने की प्रणालियां हैं। कई रिपोर्ट और यहां तक कि अकादमिक दस्तावेज भी यही कहते हैं। लेकिन यह एक गलत धारणा के कारण है - या यूं कहें कि एआई में ‘‘सीखने’’ से हमारा क्या मतलब है।
फिर भी, अधिक सटीक रूप से यह समझना कि एआई प्रणाली को कैसे और कब सीखते हैं (और कब नहीं सीखते हैं)।
एआई प्रणाली सीखती नहीं है – कम से कम इंसानों की तरह तो नहीं।
एआई के बारे में कई गलतफहमियां ऐसे शब्दों के इस्तेमाल से पैदा होती हैं जिनका मनुष्यों पर लागू होने पर एक निश्चित अर्थ होता है, जैसे सीखना। हम जानते हैं कि मनुष्य कैसे सीखते हैं, क्योंकि हम हर समय ऐसा करते हैं। हमारे पास अनुभव होते हैं; हम कुछ ऐसा करते हैं, जो विफल हो जाता है; हम कुछ नया देखते हैं; हम कुछ आश्चर्यजनक पढ़ते हैं; और इस प्रकार हम याद रखते हैं, हम चीजों को करने के तरीके को अद्यतन या बदलते हैं।
एआई प्रणाली इस तरह से नहीं सीखती हैं। एआई प्रणाली को किसी खास अनुभव से नहीं सीखते हैं, जिससे वे चीजों को उसी तरह समझ सकें जिस तरह हम इंसान समझते हैं। बल्कि ये डाटा से पैटर्न को ‘एनकोड’ करके “सीखते” हैं - केवल गणित का उपयोग करके। यह प्रशिक्षण प्रक्रिया के दौरान होता है, जब उन्हें बनाया जाता है।
बड़े भाषा मॉडल लें, जैसे कि जीपीटी-4, वह तकनीक जो चैटजीपीटी को शक्ति प्रदान करती है।
“सीखने” का यह तरीका स्पष्ट रूप से मनुष्यों के सीखने के तरीके से बहुत अलग है।
इसके कुछ नकारात्मक पहलू यह हैं कि एआई अक्सर दुनिया के बारे में सरल व्यावहारिक ज्ञान प्राप्त करने में संघर्ष करता है, जिसे मनुष्य स्वाभाविक रूप से दुनिया में रहकर ही सीख लेता है।
एक बार प्रशिक्षित होने के बाद, सीखना बंद हो जाता है
ज्यादातर एआई प्रणाली जिनका अधिकांश लोग उपयोग करते हैं, जैसे कि चैटजीपीटी, एक बार बन जाने के बाद सीखते नहीं हैं। आप कह सकते हैं कि एआई प्रणाली बिल्कुल नहीं सीखते हैं - प्रशिक्षण केवल यह है कि उन्हें कैसे बनाया जाता है, यह नहीं कि वे कैसे काम करते हैं। जीपीटी में “पी” का शाब्दिक अर्थ “पूर्व-प्रशिक्षित” है।
‘‘पूर्व-प्रशिक्षित’’ होने का मतलब है कि बड़े भाषा मॉडल हमेशा समय में अटके रहते हैं। उनके प्रशिक्षण आकंड़े में किसी भी अपडेट के लिए अत्यधिक महंगी पुनःप्रशिक्षण की आवश्यकता होती है।
इसका मतलब है कि चैटजीपीटी आपके संकेतों से निरंतर आधार पर नहीं सीखता है।
उपयोगकर्ताओं के लिए इसका क्या मतलब है?
सबसे पहले, इस बात से अवगत रहें कि आपको अपने एआई सहायक से क्या मिलता है।
‘टेक्स्ट डेटा’ से सीखने का मतलब है कि चैटजीपीटी जैसी प्रणालियां भाषा मॉडल हैं, न कि ज्ञान मॉडल। हालांकि यह सचमुच आश्चर्यजनक है कि गणितीय प्रशिक्षण प्रक्रिया के माध्यम से कितना ज्ञान ‘एनकोड’ किया जाता है, लेकिन ज्ञान संबंधी प्रश्न पूछे जाने पर ये मॉडल हमेशा विश्वसनीय नहीं होते हैं।
अच्छी खबर यह है कि एआई बनाने वालों ने कुछ चतुराईपूर्ण समाधान निकाले हैं। उदाहरण के लिए, चैटजीपीटी के कुछ संस्करण अब इंटरनेट से जुड़े हुए हैं।
जो उपयोगकर्ता यह समझते हैं कि एआई प्रणाली कैसे सीखती है - या नहीं सीखती है - वे प्रभावी संकेत रणनीतियों को विकसित करने में अधिक निवेश करेंगे और एआई को एक सहायक के रूप में मानेंगे - जिसे हमेशा जांचने की आवश्यकता होती है।
(द कन्वरसेशन) देवेंद्र