आप तो एक प्रॉम्प्ट डालकर रिजल्ट पा लेते हैं, मगर क्या जानते हैं कितनी बिजली खाता है AI?

आजकल हम सबके लिए AI एक जादू की तरह काम कर रहा है. बस एक सवाल टाइप करो या बोलो, और सेकेंड्स में जवाब मिल जाता है. रेसिपी बताओ, कोड लिखो, इमेज बनाओ या काम का प्लान तैयार करो – AI सब कुछ आसान बना रहा है. लेकिन क्या आपने कभी सोचा है कि इस ‘जादू’ के पीछे कितनी बिजली लग रही है?

जब हम एक साधारण प्रॉम्प्ट डालते हैं, तो लगता है कि बस एक छोटा सा काम हुआ. लेकिन असल में यह काम दुनिया भर के विशाल डेटा सेंटर्स में चलता है. इन सेंटर्स में हजारों-लाखों पावरफुल कंप्यूटर (खासकर GPU चिप्स) लगे होते हैं, जो AI मॉडल को चलाते हैं. ये चिप्स बहुत ज्यादा बिजली खाते हैं.

AI की मांग इतनी तेजी से बढ़ रही है कि कंप्यूटिंग पावर (computing power) की कमी हो गई है. कंपनियां GPU किराए पर लेने के लिए भी ज्यादा पैसे दे रही हैं. उदाहरण के लिए, Nvidia के Blackwell चिप को एक घंटे के लिए किराए पर लेने की कीमत दो महीने पहले $2.75 थी, जो अब $4.08 हो गई है- यानी लगभग 48% बढ़ोतरी. पुराने H100 GPU की रेंटल कीमत भी 40% तक बढ़ चुकी है.

OpenAI और Anthropic जैसी कंपनियां इस कमी से जूझ रही हैं. Anthropic के Claude चैटबॉट में अक्सर आउटेज हो रहे हैं. पीक टाइम में वो यूजर्स को टोकन (AI में इस्तेमाल होने वाली यूनिट) की लिमिट लगा रहे हैं.

इतिहास में भी हुई हैं ऐसी दिक्कत
OpenAI ने अपना पॉपुलर Sora वीडियो जेनरेशन ऐप बंद कर दिया, ताकि कंप्यूटिंग रिसोर्स को नए AI मॉडल और एंटरप्राइज प्रोडक्ट्स के लिए बचाया जा सके. OpenAI के API में टोकन यूज अक्टूबर में 6 बिलियन प्रति मिनट से बढ़कर मार्च में 15 बिलियन प्रति मिनट हो गया. मांग इतनी तेज है कि इंफ्रास्ट्रक्चर तैयार करने की स्पीड उससे मैच नहीं कर पा रही. यह समस्या नई नहीं है. इतिहास में रेलवे, टेलीकॉम या इंटरनेट के बूम के समय भी ऐसी ही स्थिति आई थी- मांग संसाधनों से ज्यादा तेज बढ़ जाती है. AI में भी यही हो रहा है.

कंपनियां यूजर्स को आकर्षित करने के लिए प्रतिस्पर्धा कर रही हैं, इसलिए कीमतें बढ़ाना आसान नहीं. नतीजा? आउटेज, लिमिट और कुछ प्रोडक्ट्स को रोकना पड़ रहा है.

अब सबसे बड़ा सवाल- बिजली कितनी खर्च हो रही है?
एक साधारण ChatGPT जैसा प्रॉम्प्ट (टेक्स्ट जवाब) लगभग 0.3 से 0.34 वॉट-घंटे बिजली इस्तेमाल करता है. यह बहुत कम लगता है- एक LED बल्ब को कुछ मिनट चलाने जितना. लेकिन जब अरबों प्रॉम्प्ट रोजाना हो रहे हों, तो आंकड़ा विशाल हो जाता है.

डेटा सेंटर्स पहले से ही दुनिया की कुल बिजली का करीब 1.5% इस्तेमाल कर रहे हैं (लगभग 415 TWh सालाना). AI की वजह से यह मांग तेजी से बढ़ रही है. अनुमान है कि 2030 तक डेटा सेंटर्स की बिजली खपत दोगुनी या उससे ज्यादा हो सकती है.

अमेरिका में डेटा सेंटर्स पहले ही कुल बिजली का 4% इस्तेमाल कर रहे हैं, और AI वाले सर्वर का हिस्सा और बढ़ रहा है. एक बड़े AI डेटा सेंटर की बिजली खपत 1 लाख घरों जितनी हो सकती है. ट्रेनिंग (AI मॉडल को सिखाना) तो बहुत ज्यादा बिजली खाती है, लेकिन रोजाना इस्तेमाल (इन्फरेंस) भी कुल खपत का बड़ा हिस्सा बन रहा है. जितने ज्यादा यूजर्स AI एजेंट्स (जो खुद काम करते हैं) इस्तेमाल करेंगे, उतनी ही बिजली की जरूरत बढ़ेगी.

तो क्या इसका मतलब है AI छोड़ दें?
बिल्कुल नहीं. लेकिन हमें समझना चाहिए कि यह सुविधा मुफ्त नहीं है. यह पर्यावरण पर असर डाल रही है- ज्यादा बिजली का मतलब ज्यादा कोयला, गैस या रिन्यूएबल एनर्जी की जरूरत. कंपनियां खपत सुधार रही हैं, लेकिन मांग इतनी तेज है कि चुनौतियां बनी हुई हैं.

अगली बार जब आप कोई प्रॉम्प्ट डालें, तो याद रखें- पीछे एक पूरा इंफ्रास्ट्रक्चर बिजली खा रहा है. AI हमें प्रोडक्टिव बना रहा है, लेकिन सस्टेनेबल तरीके से इसका इस्तेमाल करना भी जरूरी है. भविष्य में बेहतर चिप्स, ग्रीन एनर्जी और स्मार्ट यूज से यह बैलेंस बन सकता है.

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *