Friday, 16 May 2025

इतनी बिजली क्यों खाती है एआई

 चंद्रभूषण

आर्टिफिशियल इंटेलिजेंस और क्लाउड कंप्यूटिंग की चर्चा अभी दुनिया में सबसे ज्यादा बिजली खाने वाली तकनीकों की तरह हो रही है। सन 2022 में लगाए गए हिसाब के मुताबिक ये दोनों उस समय दुनिया की दो फीसदी बिजली हजम कर रही थीं। उसी प्रक्रिया में अनुमान लगाया गया था कि सन 2026 तक इनकी बिजली खपत संसार की कुल खपत का साढ़े तीन प्रतिशत हो जाएगी। लेकिन जिस समय यह सारा हिसाब लगाया गया था, तबतक हर हाथ में पहुंच जाने वाले चैटजीपीटी, जेमिनी, ग्रॉक और मेटाएआई जैसे कृत्रिम बुद्धि बवंडरों का युग शुरू ही नहीं हुआ था। अभी तो इस हल्ले में चीन भी पूरी ताकत से कूद पड़ा है और इस मद में बिजली की ग्लोबल खपत का सटीक हिसाब लगना अभी बाकी है।

क्लाउड कंप्यूटिंग और आर्टिफिशियल इंटेलिजेंस का किस्सा एक मामले में समान लगता है कि दोनों में बड़े-बड़े डेटा सेंटरों की जरूरत पड़ती है। लेकिन क्लाउड कंप्यूटिंग में तुलनात्मक रूप से ज्यादा बिजली डेटा स्टोरेज के काम में लगती है, जबकि आर्टिफिशियल इंटेलिजेंस में ऑपरेशंस के लिए अधिक ऊर्जा की जरूरत पड़ती है। आगे हम अपना ध्यान एआई पर ही केंद्रित करेंगे क्योंकि इस क्षेत्र का फैलाव अनपेक्षित तेजी से हो रहा है। ज्यादातर बड़ी एआई कंपनियों का केंद्र फिलहाल अमेरिका में ही है और अमेरिकियों का मानना है कि अगले पांच साल बीतते न बीतते, यानी सन 2030 तक ही उनकी कुल बिजली खपत का 9 फीसदी अकेले एआई के हिस्से जा रहा होगा। 

कृत्रिम बुद्धि इतनी बिजली का आखिर करती क्या है? सबसे पहले हम इसी बारे में कुछ जानकारियां जुटाते हैं। उसके बिजली खर्चे के पांच मुख्य चरण हैं, जिनपर हम एक-एक करके नजर डालेंगे। हमारे तक, यानी आम उपभोक्ता तक यह अपने आखिरी चरण में पहुंचती है और हमारे छोर पर ना के बराबर ही बिजली खाती है। 

एआई का पॉवर कंजम्प्शन ऊपर से शुरू होता है और वहां तक सोचना हमारे लिए अक्सर जरूरी भी नहीं होता। यह भी कि जिस एआई से हम काम लेते हैं, वह इस तकनीक का सिर्फ एक रूप है, हालांकि इसकी स्थिति धुरी जैसी है। 

एआई का काम पैटर्न पकड़ना है, जिसके लिए वह एक मॉडल का इस्तेमाल करती है। बहुत सारी तुलनाएं करते हुए, समानता और अंतर के आधार पर उसको नतीजे तक पहुंचना होता है।

फिलहाल हम ‘लार्ज लैंग्वेज मॉडल’ (एलएलएम) के बारे में ही बात करेंगे, क्योंकि अपने इर्दगिर्द हमें यही दिखता है। ऐसे हर मॉडल में लाखों-करोड़ों 'पैरामीटर' काम में लाए जाते हैं। पैरामीटर बोले तो तुलना की बुनियादें, या यूं कहें कि सूचना का पहाड़ चढ़ने के लिए गड़ी हुई खूंटियां। जिस मॉडल में जितने ज्यादा पैरामीटर, उतना ही वह बड़ा और जटिल मॉडल। ओपेनएआई के ‘जीपीटी-4’, गूगल के ‘पाम’ या जेमिनी और मेटा के ‘लामा’ जैसे लार्ज लैंग्वेज मॉडल में खरबों पैरामीटर मौजूद हैं। 

इन्हें ट्रेनिंग देने से लेकर इस्तेमाल करने तक बेहिसाब गणनाएं करनी पड़ती हैं। एक मोटा अनुमान है कि जितनी बिजली एक मॉडल को चलाने में खर्च होती है, उसकी एक चौथाई उसे ट्रेनिंग देने में ही लग जाती है। ध्यान रहे, मॉडल को दिन-रात चलाते रहने वाले लोगों की संख्या करोड़ों में होती है, जो अरबों में भी जा सकती है, जबकि उसे ट्रेनिंग देने वाली टीम छोटी होती है और वह छोटे दायरे में ही काम करती है। एआई मॉडल को ट्रेन करना किसी बच्चे को बहुत सारी किताबें पढ़ाकर होशियार बनाने जैसा है, लेकिन यह प्रक्रिया बहुत ज़्यादा बिजली खाती है। 

इसमें मॉडल को बहुत बड़े डेटासेट पर बार-बार चलाया जाता है ताकि वह पैटर्न सीख सके और सही नतीजे दे सके। लार्ज लैंग्वेज मॉडल के लिए यह डेटासेट सिर्फ शब्दों का होता है। जीपीटी-3 में 17 लाख करोड़ शब्दों पर काम करने की क्षमता थी! किसी और मॉडल का डेटासेट विज्ञान के एक खास दायरे में पूरी दुनिया में अबतक हुए प्रयोगों और प्रेक्षणों का हो सकता है। मॉडल ट्रेनिंग के इस काम में ग्रैफिक्स प्रॉसेसिंग यूनिट (जीपीयू) और टेंसर प्रॉसेसिंग यूनिट (टीपीयू) नाम के हजारों खास तरह के प्रॉसेसर हफ्तों या महीनों लगातार काम करते हैं। इन प्रॉसेसर्स का इस्तेमाल हाल तक सिर्फ गेम खेलने में होता था, लेकिन अभी इनकी मेन ड्यूटी बदल गई है। 

मॉडल ट्रेनिंग के काम में तो भारी बिजली खर्च होती ही है, प्रॉसेसर्स को ठंडा करके कामकाजी बनाए रखने में भी कुछ कम ऊर्जा नहीं लगती। एक बार मॉडल अपना काम सीख जाए, फिर जो काम हम उससे लेते हैं उसे 'इनफरेंस' कहते हैं। एक अकेले इनफरेंस में कुछ नहीं जाता, लेकिन करोड़ों लोगों ने दिन-रात सवालों की झड़ी लगा रखी हो तो मशीन को इनका सही जवाब तुरत-फुरत खोज लाने में कितनी बिजली खर्च करनी पड़ती होगी, इसकी कल्पना ही की जा सकती है। ऊपर जिन जीपीयू और टीपीयू की बात हमने की, वे एक साथ ढेरों गणनाएं कर सकते हैं, इसलिए एआई के काम में वे काफी अच्छे साबित होते हैं। इन प्रॉसेसर्स की नई पीढ़ियाँ कम बिजली में भी ज्यादा काम करने लगी हैं, लेकिन एआई की भूख इतनी तेज बढ़ रही है कि उनकी किफायतशारी काम नहीं आ रही है। 

एआई के मामले में बिजली का एक बड़ा खर्चा डेटा सेंटरों से भी जुड़ा है। दुनिया भर की लगातार बदल रही जानकारियां, मानव इतिहास में अभी तक का संचित ज्ञान, इसकी सारी रचनात्मकता डिजिटाइज होकर डेटा सेंटरों में पहुंच रही है। एआई के मॉडल्स इसी डेटा बेस पर ट्रेन किए जाते हैं और फिर दुनिया भर से आए सवालों का जवाब खोजने के लिए वे ऐसे ही डेटा बेसेज पर काम करते हैं। ये सारी सूचनाएं, जानकारियां तभी सुरक्षित रह सकती हैं, जब उन्हें स्टोर करने वाले बेस लगातार ठंडे रखे जाएं और बिजली के किसी बड़े फ्लक्चुएशन से उन्हें न गुजरना पड़े। इसके लिए डेटा बेसेज में और उनके विशाल ‘लिक्विड कूलिंग सिस्टम’ में बैक-अप के उपायों के साथ बिजली की भारी और स्थिर आपूर्ति जरूरी है। इसके लिए जो उपाय किए गए हैं, उन्हें सुनकर माथा घूम जाता है। 

गूगल और मेटा इस काम के लिए अपने छोटे-छोटे परमाणु बिजलीघर खड़े करने की योजना पर काम कर रहे हैं। दोनों कंपनियों को अपने एआई कारोबार के लिए डेढ़-डेढ़ सौ मेगावाट बिजली की जरूरत है, जो फिलहाल ग्रिड से ही पूरी हो रही है। लेकिन बैक-अप की व्यवस्था उन्हें फिर भी रखनी ही होगी। सिस्टम का आकार अभी जितना बड़ा हो गया है, बाहर से आ रही बिजली में कोई समस्या आ जाने पर मजबूत से मजबूत जेनरेटर या इनवर्टर भी सहज ढंग से उसे चलाते रहने की व्यवस्था नहीं कर सकता। डेढ़ सौ मेगावाट का परमाणु बिजलीघर दस साल से कम समय में नहीं बन सकता, लिहाजा उन्हें मॉड्युलर फिशन रिएक्टर की उभरती टेक्नॉलजी पर भरोसा करना होगा।

इसके विपरीत, इलॉन मस्क के कारखाने से निकली एआई ‘ग्रॉक’ का पैमाना अचानक इतना बड़ा हो गया है कि उनकी कंपनी मॉड्युलर एटॉमिक रिएक्टर का भी भरोसा नहीं कर सकती। दुनिया की सारी कंपनियां अभी मॉडल ट्रेनिंग के लिए कुछ हजार जीपीयू और टीपीयू का इस्तेमाल कर रही हैं, लेकिन ग्रॉक सीधे दस लाख ऐसे ही प्रॉसेसर्स जमा करने की राह पर है। अपने सिस्टम और डेटाबेस की विशाल ऊर्जा जरूरत पूरी करने के लिए वह मस्क की ही टेस्ला कंपनी की बनाई विशाल बैटरियों का इस्तेमाल करने जा रहा है। मस्क का दावा है कि इन बैटरियों को अक्षय ऊर्जा स्रोतों से ही चार्ज किया जाएगा, लिहाजा उनकी एआई को पर्यावरण हितैषी (ग्रीन) तकनीक माना जाए! 


No comments:

Post a Comment