International

AI चाहे जितना आगे बढ़े, रचनात्मक लेखन इंसानी हुनर ही रहेगा

56 / 100

1948 में, इनफॉर्मेशन थ्योरी के जनक क्लॉड शैनन ने यह आइडिया दिया था कि किसी भाषा को इस तरह मॉडल किया जा सकता है कि एक वाक्य में अगला शब्द क्या होगा, यह पिछले शब्दों के आधार पर तय किया जाए। इस तरह के प्रॉबेबिलिटी (संभाव्यता) पर आधारित भाषा मॉडल उस समय ज़्यादा पसंद नहीं किए गए, और मशहूर भाषाविद् नोम चॉम्स्की ने तो यहां तक कह दिया था कि “किसी वाक्य की संभावना जानना एक बेकार बात है।” लेकिन 2022 में, शैनन के आइडिया के 74 साल बाद ChatGPT आया, जिसने लोगों का ध्यान अपनी ओर खींचा। कुछ लोगों ने तो इसे सुपर-ह्यूमन इंटेलिजेंस की शुरुआत भी कहा। शैनन की बात से लेकर ChatGPT तक पहुंचने में इतना वक्त इसलिए लगा क्योंकि जितना डेटा और कंप्यूटर संसाधन आज मौजूद हैं, वो कुछ साल पहले तक सोच से बाहर थे।

ChatGPT एक बड़ा भाषा मॉडल (LLM) है, जो इंटरनेट से लिए गए बहुत बड़े टेक्स्ट डाटा से सीखा गया है। यह मॉडल यह अंदाज़ा लगाता है कि दिए गए कॉन्टेक्स्ट (यानि कि शुरुआती इनपुट और पहले के शब्दों) के आधार पर अगला शब्द क्या हो सकता है। ChatGPT इसी मॉडल के ज़रिए अगला शब्द चुनता है और इसी तरह पूरा टेक्स्ट बनाता है। इसे ऐसे समझिए जैसे किसी टोपी से शब्द निकाले जा रहे हों—जिन शब्दों की संभावना ज़्यादा होती है, उनके ज़्यादा पर्चे होते हैं। इसलिए जो टेक्स्ट बनता है, वह काफी हद तक समझदार और स्मार्ट लगता है। अब इस बात पर काफी बहस हो रही है कि ये टूल्स रचनात्मक लेखन को बढ़ावा देंगे या नुकसान पहुंचाएंगे। मैं कंप्यूटर साइंस का प्रोफेसर हूं और आर्टिफिशियल इंटेलिजेंस (AI) पर सैकड़ों लेख और किताबें लिख चुका हूं, जिनमें LLMs के सामाजिक असर की भी बात होती है। मेरा मानना है कि इन मॉडलों को समझने से लेखक और शिक्षक यह बेहतर जान सकते हैं कि AI का कहां और कैसे सही तरीके से इस्तेमाल किया जा सकता है, खासकर रचनात्मक लेखन में।

क्या LLMs तोते हैं या नकलची?

यह समझना ज़रूरी है कि LLM की “क्रिएटिविटी” और इंसान की क्रिएटिविटी में फर्क है। जिन लोगों को कंप्यूटर से ज़्यादा उम्मीद नहीं थी, उनके लिए ये टेक्स्ट बहुत क्रिएटिव लगे। लेकिन कुछ लोग इस पर शक करते हैं। मशहूर कॉग्निटिव साइंटिस्ट डग्लस होफस्टैटर ने इसे “एक दमदार दिखने वाली सतह के नीचे छिपी खालीपन” कहा। भाषाविद एमिली बेंडर और उनके साथियों ने इन मॉडलों को “स्टोकास्टिक पैरट्स” कहा—यानि ये मॉडल ट्रेनिंग के दौरान जो देखा है, वही थोड़े बदलाव के साथ दोहराते हैं। अगर आप सोचें कि कोई खास शब्द क्यों चुना गया, तो इसका जवाब यही होगा कि वह शब्द उस मौके के लिए ज्यादा आम था, और इसलिए उसने वही चुना। LLM का टेक्स्ट जेनरेट करना ऐसा है जैसे किसी और के लिखे टेक्स्ट से एक-एक शब्द लेकर नया वाक्य बनाना। यह एक तरह से शब्द-दर-शब्द नकल जैसा है।

इंसानी क्रिएटिविटी कैसी होती है?

अब ज़रा उस इंसान की क्रिएटिविटी के बारे में सोचिए, जिसके पास खुद के आइडिया होते हैं, जिन्हें वो दूसरों तक पहुंचाना चाहता है। जब वो जनरेटिव AI का इस्तेमाल करता है, तो वो अपने आइडिया को एक प्रॉम्प्ट में डालता है और AI उससे टेक्स्ट (या इमेज या साउंड) तैयार करता है। अगर किसी को फर्क नहीं पड़ता कि क्या बन रहा है, तो वो कोई भी प्रॉम्प्ट दे सकता है। लेकिन जिसे फर्क पड़ता है, वह चाहता है कि जो आउटपुट मिले, वह उसके सोच के करीब हो। LLM किसी भी इंसान का पर्सनल स्टाइल या सोच नहीं जानता। वह सिर्फ इतना समझता है कि कोई औसत व्यक्ति उस सिचुएशन में क्या लिखता। लेकिन ज़्यादातर लेखक चाहते हैं कि उनका काम उनकी अपनी सोच और स्टाइल को दिखाए, न कि किसी औसत व्यक्ति की। अगर इनपुट में डिटेल कम हैं, तो LLM खुद से नई बातें जोड़ देता है—जो ज़रूरी नहीं कि लेखक की सोच से मेल खाएं।

LLM का क्रिएटिव लेखन में पॉज़िटिव इस्तेमाल

लेखन और सॉफ्टवेयर डेवलपमेंट में बहुत समानता है। जैसे एक सॉफ्टवेयर डेवेलपर एक आइडिया से कोड लिखता है, वैसे ही एक लेखक किसी सोच से टेक्स्ट तैयार करता है। LLM दोनों को एक ही तरीके से देखता है—क्योंकि उसके ट्रेनिंग डाटा में दोनों तरह का कंटेंट होता है: कोड भी और नैचुरल लैंग्वेज भी। इसलिए लेखक, प्रोग्रामर्स से बहुत कुछ सीख सकते हैं। जैसे सॉफ्टवेयर में LLM छोटे-छोटे प्रोजेक्ट्स या रेगुलर कामों (जैसे डेटाबेस क्वेरी या फॉर्मेटेड लेटर) में अच्छा काम करता है। वैसे ही लेखन में भी यह छोटे हिस्सों में या बार-बार लिखे जाने वाले कंटेंट में अच्छा काम करता है। अगर कोई बड़ा प्रोजेक्ट है, तो प्रोग्रामर को कई आउटपुट जनरेट करने होते हैं और उनमें से सबसे सही वाले को एडिट करना होता है। असली चुनौती हमेशा ये होती है कि हम क्या चाहते हैं, इसे अच्छे से समझाना; कोड लिखना तो उसके बाद की बात है।

अच्छे प्रॉम्प्ट बनाना भी एक कला है

आजकल “प्रॉम्प्ट इंजीनियरिंग” को एक आर्ट कहा जा रहा है। इसमें बताया जाता है कि कैसे-कैसे सवाल या निर्देश देकर बेहतर रिजल्ट पाया जा सकता है। जैसे पहले एक आउटलाइन बनवाना, फिर उसी के आधार पर पूरा लेख लिखवाना। एक और तरीका है “चेन ऑफ थॉट”, जिसमें AI से यह भी पूछा जाता है कि वो किसी नतीजे पर कैसे पहुंचा। इससे उसका प्रोसेस भी समझ आता है और वह प्रोसेस अगली बार के लिए भी इनपुट बन जाता है। लेकिन ये सब चीजें ज़्यादा दिन नहीं टिकतीं। अगर कोई ट्रिक बार-बार काम करने लगे, तो अगली वर्जन में वह AI खुद ही वो तरीका शामिल कर लेता है, जिससे आगे से ट्रिक बताने की ज़रूरत ही नहीं पड़ेगी। आज के कुछ नए मॉडल्स पहले से ही ऐसे “स्टेप-बाय-स्टेप” सोचने की क्षमता के साथ आते हैं।

लोग मानना चाहते हैं

कंप्यूटर वैज्ञानिक जोसेफ वीज़नबाउम ने जब 1964–66 में ELIZA प्रोग्राम बनाया, तो उन्होंने लिखा, “मैं हैरान था कि लोग इस प्रोग्राम से इतनी जल्दी और इतनी गहराई से जुड़ गए और इसे एक इंसान की तरह देखने लगे।” अब भले ही टूल बदल गए हों, लेकिन लोग आज भी मानना चाहते हैं। इस दौर में जब गलत जानकारी हर जगह फैली है, तो ज़रूरी है कि हर इंसान यह समझे कि जो कुछ भी कहा जा रहा है, उसके पीछे कोई भावनात्मक या प्रचार वाला मकसद हो सकता है। जनरेटिव AI में कोई जादू नहीं है, बस ढेर सारा डेटा है, जिससे यह अंदाज़ा लगाता है कि कोई इंसान क्या लिख सकता है। मेरी उम्मीद है कि इंसानी क्रिएटिविटी सिर्फ दूसरों की कही बातों को दोहराना नहीं, बल्कि कुछ नया सोचने और कहने की ताकत है।

Show More

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button