चंद्रभूषण
आर्टिफिशियल इंटेलिजेंस और क्लाउड कंप्यूटिंग की चर्चा अभी दुनिया में सबसे ज्यादा बिजली खाने वाली तकनीकों की तरह हो रही है। सन 2022 में लगाए गए हिसाब के मुताबिक ये दोनों उस समय दुनिया की दो फीसदी बिजली हजम कर रही थीं। उसी प्रक्रिया में अनुमान लगाया गया था कि सन 2026 तक इनकी बिजली खपत संसार की कुल खपत का साढ़े तीन प्रतिशत हो जाएगी। लेकिन जिस समय यह सारा हिसाब लगाया गया था, तबतक हर हाथ में पहुंच जाने वाले चैटजीपीटी, जेमिनी, ग्रॉक और मेटाएआई जैसे कृत्रिम बुद्धि बवंडरों का युग शुरू ही नहीं हुआ था। अभी तो इस हल्ले में चीन भी पूरी ताकत से कूद पड़ा है और इस मद में बिजली की ग्लोबल खपत का सटीक हिसाब लगना अभी बाकी है।
क्लाउड कंप्यूटिंग और आर्टिफिशियल इंटेलिजेंस का किस्सा एक मामले में समान लगता है कि दोनों में बड़े-बड़े डेटा सेंटरों की जरूरत पड़ती है। लेकिन क्लाउड कंप्यूटिंग में तुलनात्मक रूप से ज्यादा बिजली डेटा स्टोरेज के काम में लगती है, जबकि आर्टिफिशियल इंटेलिजेंस में ऑपरेशंस के लिए अधिक ऊर्जा की जरूरत पड़ती है। आगे हम अपना ध्यान एआई पर ही केंद्रित करेंगे क्योंकि इस क्षेत्र का फैलाव अनपेक्षित तेजी से हो रहा है। ज्यादातर बड़ी एआई कंपनियों का केंद्र फिलहाल अमेरिका में ही है और अमेरिकियों का मानना है कि अगले पांच साल बीतते न बीतते, यानी सन 2030 तक ही उनकी कुल बिजली खपत का 9 फीसदी अकेले एआई के हिस्से जा रहा होगा।
कृत्रिम बुद्धि इतनी बिजली का आखिर करती क्या है? सबसे पहले हम इसी बारे में कुछ जानकारियां जुटाते हैं। उसके बिजली खर्चे के पांच मुख्य चरण हैं, जिनपर हम एक-एक करके नजर डालेंगे। हमारे तक, यानी आम उपभोक्ता तक यह अपने आखिरी चरण में पहुंचती है और हमारे छोर पर ना के बराबर ही बिजली खाती है।
एआई का पॉवर कंजम्प्शन ऊपर से शुरू होता है और वहां तक सोचना हमारे लिए अक्सर जरूरी भी नहीं होता। यह भी कि जिस एआई से हम काम लेते हैं, वह इस तकनीक का सिर्फ एक रूप है, हालांकि इसकी स्थिति धुरी जैसी है।
एआई का काम पैटर्न पकड़ना है, जिसके लिए वह एक मॉडल का इस्तेमाल करती है। बहुत सारी तुलनाएं करते हुए, समानता और अंतर के आधार पर उसको नतीजे तक पहुंचना होता है।
फिलहाल हम ‘लार्ज लैंग्वेज मॉडल’ (एलएलएम) के बारे में ही बात करेंगे, क्योंकि अपने इर्दगिर्द हमें यही दिखता है। ऐसे हर मॉडल में लाखों-करोड़ों 'पैरामीटर' काम में लाए जाते हैं। पैरामीटर बोले तो तुलना की बुनियादें, या यूं कहें कि सूचना का पहाड़ चढ़ने के लिए गड़ी हुई खूंटियां। जिस मॉडल में जितने ज्यादा पैरामीटर, उतना ही वह बड़ा और जटिल मॉडल। ओपेनएआई के ‘जीपीटी-4’, गूगल के ‘पाम’ या जेमिनी और मेटा के ‘लामा’ जैसे लार्ज लैंग्वेज मॉडल में खरबों पैरामीटर मौजूद हैं।
इन्हें ट्रेनिंग देने से लेकर इस्तेमाल करने तक बेहिसाब गणनाएं करनी पड़ती हैं। एक मोटा अनुमान है कि जितनी बिजली एक मॉडल को चलाने में खर्च होती है, उसकी एक चौथाई उसे ट्रेनिंग देने में ही लग जाती है। ध्यान रहे, मॉडल को दिन-रात चलाते रहने वाले लोगों की संख्या करोड़ों में होती है, जो अरबों में भी जा सकती है, जबकि उसे ट्रेनिंग देने वाली टीम छोटी होती है और वह छोटे दायरे में ही काम करती है। एआई मॉडल को ट्रेन करना किसी बच्चे को बहुत सारी किताबें पढ़ाकर होशियार बनाने जैसा है, लेकिन यह प्रक्रिया बहुत ज़्यादा बिजली खाती है।
इसमें मॉडल को बहुत बड़े डेटासेट पर बार-बार चलाया जाता है ताकि वह पैटर्न सीख सके और सही नतीजे दे सके। लार्ज लैंग्वेज मॉडल के लिए यह डेटासेट सिर्फ शब्दों का होता है। जीपीटी-3 में 17 लाख करोड़ शब्दों पर काम करने की क्षमता थी! किसी और मॉडल का डेटासेट विज्ञान के एक खास दायरे में पूरी दुनिया में अबतक हुए प्रयोगों और प्रेक्षणों का हो सकता है। मॉडल ट्रेनिंग के इस काम में ग्रैफिक्स प्रॉसेसिंग यूनिट (जीपीयू) और टेंसर प्रॉसेसिंग यूनिट (टीपीयू) नाम के हजारों खास तरह के प्रॉसेसर हफ्तों या महीनों लगातार काम करते हैं। इन प्रॉसेसर्स का इस्तेमाल हाल तक सिर्फ गेम खेलने में होता था, लेकिन अभी इनकी मेन ड्यूटी बदल गई है।
मॉडल ट्रेनिंग के काम में तो भारी बिजली खर्च होती ही है, प्रॉसेसर्स को ठंडा करके कामकाजी बनाए रखने में भी कुछ कम ऊर्जा नहीं लगती। एक बार मॉडल अपना काम सीख जाए, फिर जो काम हम उससे लेते हैं उसे 'इनफरेंस' कहते हैं। एक अकेले इनफरेंस में कुछ नहीं जाता, लेकिन करोड़ों लोगों ने दिन-रात सवालों की झड़ी लगा रखी हो तो मशीन को इनका सही जवाब तुरत-फुरत खोज लाने में कितनी बिजली खर्च करनी पड़ती होगी, इसकी कल्पना ही की जा सकती है। ऊपर जिन जीपीयू और टीपीयू की बात हमने की, वे एक साथ ढेरों गणनाएं कर सकते हैं, इसलिए एआई के काम में वे काफी अच्छे साबित होते हैं। इन प्रॉसेसर्स की नई पीढ़ियाँ कम बिजली में भी ज्यादा काम करने लगी हैं, लेकिन एआई की भूख इतनी तेज बढ़ रही है कि उनकी किफायतशारी काम नहीं आ रही है।
एआई के मामले में बिजली का एक बड़ा खर्चा डेटा सेंटरों से भी जुड़ा है। दुनिया भर की लगातार बदल रही जानकारियां, मानव इतिहास में अभी तक का संचित ज्ञान, इसकी सारी रचनात्मकता डिजिटाइज होकर डेटा सेंटरों में पहुंच रही है। एआई के मॉडल्स इसी डेटा बेस पर ट्रेन किए जाते हैं और फिर दुनिया भर से आए सवालों का जवाब खोजने के लिए वे ऐसे ही डेटा बेसेज पर काम करते हैं। ये सारी सूचनाएं, जानकारियां तभी सुरक्षित रह सकती हैं, जब उन्हें स्टोर करने वाले बेस लगातार ठंडे रखे जाएं और बिजली के किसी बड़े फ्लक्चुएशन से उन्हें न गुजरना पड़े। इसके लिए डेटा बेसेज में और उनके विशाल ‘लिक्विड कूलिंग सिस्टम’ में बैक-अप के उपायों के साथ बिजली की भारी और स्थिर आपूर्ति जरूरी है। इसके लिए जो उपाय किए गए हैं, उन्हें सुनकर माथा घूम जाता है।
गूगल और मेटा इस काम के लिए अपने छोटे-छोटे परमाणु बिजलीघर खड़े करने की योजना पर काम कर रहे हैं। दोनों कंपनियों को अपने एआई कारोबार के लिए डेढ़-डेढ़ सौ मेगावाट बिजली की जरूरत है, जो फिलहाल ग्रिड से ही पूरी हो रही है। लेकिन बैक-अप की व्यवस्था उन्हें फिर भी रखनी ही होगी। सिस्टम का आकार अभी जितना बड़ा हो गया है, बाहर से आ रही बिजली में कोई समस्या आ जाने पर मजबूत से मजबूत जेनरेटर या इनवर्टर भी सहज ढंग से उसे चलाते रहने की व्यवस्था नहीं कर सकता। डेढ़ सौ मेगावाट का परमाणु बिजलीघर दस साल से कम समय में नहीं बन सकता, लिहाजा उन्हें मॉड्युलर फिशन रिएक्टर की उभरती टेक्नॉलजी पर भरोसा करना होगा।
इसके विपरीत, इलॉन मस्क के कारखाने से निकली एआई ‘ग्रॉक’ का पैमाना अचानक इतना बड़ा हो गया है कि उनकी कंपनी मॉड्युलर एटॉमिक रिएक्टर का भी भरोसा नहीं कर सकती। दुनिया की सारी कंपनियां अभी मॉडल ट्रेनिंग के लिए कुछ हजार जीपीयू और टीपीयू का इस्तेमाल कर रही हैं, लेकिन ग्रॉक सीधे दस लाख ऐसे ही प्रॉसेसर्स जमा करने की राह पर है। अपने सिस्टम और डेटाबेस की विशाल ऊर्जा जरूरत पूरी करने के लिए वह मस्क की ही टेस्ला कंपनी की बनाई विशाल बैटरियों का इस्तेमाल करने जा रहा है। मस्क का दावा है कि इन बैटरियों को अक्षय ऊर्जा स्रोतों से ही चार्ज किया जाएगा, लिहाजा उनकी एआई को पर्यावरण हितैषी (ग्रीन) तकनीक माना जाए!
No comments:
Post a Comment