ڈیٹا سینٹرز کسی کی توقع سے زیادہ طاقت کھا رہے ہیں۔ صنعت کو پکڑنے کی دوڑ لگی ہوئی ہے۔

سالوں کے لئے، کی کہانیڈیٹا سینٹرتوانائی کی کھپت ایک متوقع آرک کے بعد. ڈیجیٹائزیشن بڑھ رہی تھی، یقینی طور پر، لیکن بہتر سرورز، ورچوئلائزیشن، اور کلاؤڈ کنسولیڈیشن سے کارکردگی کے فوائد نے بجلی کے مجموعی استعمال کو حیرت انگیز طور پر فلیٹ رکھا۔ عالمی ڈیٹا سینٹر پاور ڈیمانڈ کل بجلی کی کھپت کا تقریباً 1 فیصد ہے — تقریباً 200 ٹیرا واٹ گھنٹے سالانہ — ایک دہائی کے بہتر حصے کے لیے۔

وہ دور ختم ہو رہا ہے۔

جنریٹو AI، کریپٹو کرنسی مائننگ، ایج کمپیوٹنگ، اور منسلک آلات کی تیزی سے ترقی نے پرانی کارکردگی کے منحنی خطوط کو توڑ دیا ہے۔ صنعت کے تخمینے اب ڈیٹا سینٹر پاور کی طلب کو سالانہ شرحوں پر بڑھتے ہوئے ظاہر کرتے ہیں جو 2000 کی دہائی کے اوائل سے نہیں دیکھی گئی۔ کچھ خطوں میں — آئرلینڈ، شمالی ورجینیا، سنگاپور — ڈیٹا سینٹرز پہلے سے ہی بجلی کی کل کھپت کا 15 سے 25 فیصد ہیں، جو ریگولیٹرز کو نئی تعمیرات پر پابندی عائد کرنے پر مجبور کرتے ہیں۔

اس پس منظر میں، انفراسٹرکچر کے انتخاب جو کبھی تکنیکی تفصیلات کی طرح لگتے تھے — کولنگ آرکیٹیکچر، پاور ڈسٹری بیوشن ٹوپولوجی، ریک ڈینسٹی پلاننگ — بورڈ روم کے فیصلے بن چکے ہیں۔ توانائی کی قیمت اب ایک لائن آئٹم نہیں ہے۔ یہ ترقی کی راہ میں رکاوٹ ہے۔


سادہ میٹرک جس نے سب کچھ بدل دیا۔

بجلی کے استعمال کی تاثیر، یا PUE، تقریباً دو دہائیوں سے ڈیٹا سینٹر انڈسٹری کا معیاری کارکردگی کا میٹرک رہا ہے۔ یہ ایک سادہ تناسب ہے: کل سہولت کی طاقت کو IT آلات کی طاقت سے تقسیم کیا جاتا ہے۔

2.0 کے PUE کا مطلب ہے کہ ہر واٹ پاورنگ سرورز اور اسٹوریج کے لیے، ایک اور واٹ کولنگ، لائٹنگ، پاور کنورژن نقصانات، اور دیگر اوور ہیڈ کو جاتا ہے۔ 1.2 کے PUE کا مطلب ہے کہ اوور ہیڈ صرف 0.2 واٹ فی IT واٹ استعمال کرتا ہے۔

صنعت نے PUE کی بنیاد پر وسیع پیمانے پر درجات کو قبول کیا ہے:

سطح PUE DCiE اس کا کیا مطلب ہے۔
پلاٹینم <1.25 >0.80 عالمی معیار کی کارکردگی، عام طور پر مفت کولنگ یا مائع کولنگ کی ضرورت ہوتی ہے۔
سونا 1.25 - 1.43 0.70 - 0.80 معتدل آب و ہوا میں جدید ڈیزائن کے ساتھ بہت موثر، قابل حصول
چاندی 1.43 - 1.67 0.60 - 0.70 پرانی سہولیات یا گرم آب و ہوا کے لیے قابل قبول
کانسی 1.67 - 2.00 0.50 - 0.60 بڑے retrofits کے بغیر میراثی ڈیٹا سینٹرز کے لیے عام
میلہ 2.00 - 2.50 0.40 - 0.50 ناقص کارکردگی، اعلی آپریٹنگ لاگت
غریب >2.50 <0.40 اہم نااہلی، ممکنہ طور پر فوری توجہ کی ضرورت ہے۔

مسئلہ یہ ہے کہ بہت سی تنظیمیں دراصل اپنے PUE کو نہیں جانتی ہیں۔ وہ اندازہ لگاتے ہیں۔ وہ اندازہ لگاتے ہیں۔ یا وہ صرف مین یوٹیلیٹی میٹر پر ناپتے ہیں اور باقی مان لیتے ہیں۔

2023 کے ایک صنعتی سروے سے پتا چلا ہے کہ تقریباً 40 فیصد ڈیٹا سینٹر آپریٹرز نے کبھی بھی ریک کی سطح پر PUE کی پیمائش نہیں کی۔ ان لوگوں میں جنہوں نے رپورٹ کیا اور اصل PUE کے درمیان پھیلاؤ اوسطاً 0.3 پوائنٹس تھا - کسی کی توجہ کیے بغیر کسی سہولت کو سونے سے چاندی میں منتقل کرنے کے لیے کافی ہے۔

طاقت اصل میں کہاں جاتی ہے۔

یہ سمجھنا کہ PUE کیوں اتنے وسیع پیمانے پر مختلف ہوتا ہے یہ دیکھنے سے شروع ہوتا ہے کہ پاور ڈیٹا سینٹر کو کہاں چھوڑتی ہے۔

1.8 کے ارد گرد PUE کے ساتھ ایک عام ایئر کولڈ سہولت میں، خرابی تقریبا اس طرح نظر آتی ہے:

  • آئی ٹی کا سامان (سرور، اسٹوریج، نیٹ ورکنگ): 55-60 فیصد
  • کولنگ (CRAC/CRAH یونٹس، چلرز، پمپس، خشک کولر): 30-35 فیصد
  • بجلی کی تقسیم (UPS، ٹرانسفارمرز، PDU نقصانات): 5-8 فیصد
  • لائٹنگ اور دیگر سہولیات کا بوجھ: 2-4 فیصد

کولنگ لوڈ سب سے بڑا متغیر ہے۔ معتدل آب و ہوا میں ایک سہولت باہر کی ہوا کو مفت کولنگ کے لیے استعمال کر سکتی ہے جو اپنی غیر آئی ٹی طاقت کا صرف 15 فیصد کولنگ پر خرچ کر سکتی ہے۔ مکینیکل کولنگ کے ساتھ اشنکٹبندیی آب و ہوا میں ایک ہی سہولت سال بھر 40 فیصد خرچ کر سکتی ہے۔

یہی وجہ ہے کہ کولیشن فراہم کرنے والے سہولت کی سطح پر PUE کی تشہیر کرتے ہیں لیکن PUE کسٹمر میٹر پر فراہم کرتے ہیں — مختلف نمبر، مختلف مضمرات۔ گاہک اس سب کی ادائیگی کرتا ہے۔

روایتی سے کلاؤڈ اسکیل انفراسٹرکچر میں تبدیلی

روایتی ڈیٹا سینٹر کے انتظام نے نسبتاً مستحکم ماحول سنبھالا۔ ریک مہینوں یا سالوں میں بھرے جاتے تھے۔ کولنگ کو آہستہ آہستہ ایڈجسٹ کیا جا سکتا ہے۔ بجلی کی تقسیم پہلے دن سے ہی زیادہ ہو گئی۔

بادل کے دور نے مفروضوں کو بدل دیا۔ ریک اب دنوں میں بھر جاتے ہیں۔ کام کا بوجھ خود بخود سرورز میں بدل جاتا ہے۔ اعلی کثافت والے AI کلسٹر ملحقہ عام مقصد کے کمپیوٹ ریک کی تین گنا طاقت حاصل کر سکتے ہیں۔

ان تبدیلیوں نے بنیادی ڈھانچے کے انتظام پر دوبارہ غور کرنے پر مجبور کر دیا ہے۔ تین رجحانات نمایاں ہیں۔

سب سے پہلے، کثافت غیر مساوی طور پر بڑھ رہی ہے.ایک دہائی پہلے ایک معیاری سرور ریک نے 5-8 کلو واٹ کا اخراج کیا۔ آج، عام مقصد کے ریک 10-15 کلو واٹ کھینچتے ہیں۔ ہائی پرفارمنس کمپیوٹنگ اور AI ٹریننگ ریک معمول کے مطابق 30 کلو واٹ فی ریک سے زیادہ ہوتے ہیں۔ کچھ 50 کلو واٹ سے زیادہ ہیں۔

اس سے تھرمل مینجمنٹ چیلنجز پیدا ہوتے ہیں جن کو حل کرنے کے لیے ایئر کولنگ جدوجہد کرتی ہے۔ 20 کلو واٹ فی ریک پر، ایئر کولنگ مناسب کنٹینمنٹ کے ساتھ موثر رہتی ہے۔ 30 کلو واٹ پر، یہ معمولی ہو جاتا ہے۔ 40 کلو واٹ اور اس سے اوپر، مائع کولنگ اختیاری سے ضروری کی طرف منتقل ہوتا ہے۔

دوسرا، صلاحیت کی منصوبہ بندی پیشن گوئی بن گئی ہے.پرانا طریقہ - ضرورت سے زیادہ صلاحیت خریدیں اور اسے بیکار رہنے دیں - اب پیمانے پر کام نہیں کرتا ہے۔ بیکار صلاحیت کیپٹل لاگت اور جاری دیکھ بھال کی لاگت دونوں ہوتی ہے۔

جدید انفراسٹرکچر مینجمنٹ سسٹم یہ پیشین گوئی کرنے کے لیے تاریخی ڈیٹا اور کام کے بوجھ کی پیشن گوئی کا استعمال کرتے ہیں کہ بجلی، کولنگ، یا ریک کی جگہ کب ختم ہو جائے گی۔ بہترین نظام تجویز کر سکتے ہیں کہ آیا موجودہ صلاحیت کو دوبارہ ترتیب دینا ہے یا نئے ہارڈ ویئر کا آرڈر دینا ہے، کسی رکاوٹ کے نازک ہونے سے چند دن یا ہفتوں پہلے۔

تیسرا، مرئیت کے تقاضے سابق ہیں۔pandedایک روایتی ڈیٹا سینٹر PDU سطح پر پاور کو ٹریک کر سکتا ہے۔ ایک جدید سہولت کو ریک کی سطح پر، کبھی کبھی سرور کی سطح پر، اور تیزی سے کام کے بوجھ کی سطح پر مرئیت کی ضرورت ہوتی ہے — یہ جانتے ہوئے کہ کون سی ورچوئل مشین یا کنٹینر چلاتا ہے جو پاور ڈرا کرتا ہے۔

DCIM پرت: یہ اصل میں کیا کرتا ہے۔

ڈیٹا سینٹر انفراسٹرکچرمینجمنٹ (DCIM) سافٹ ویئر ایک دہائی سے زیادہ عرصے سے موجود ہے، لیکن گود لینا ناہموار ہے۔ آدھے سے بھی کم انٹرپرائز ڈیٹا سینٹرز نے ایک مکمل DCIM سسٹم تعینات کیا ہے۔ بہت سے جنہوں نے اپنی صلاحیتوں کا صرف ایک حصہ استعمال کیا۔

ایک مناسب طریقے سے نافذ کردہ DCIM نظام چار چیزیں کرتا ہے:

اثاثہ جات کا انتظام۔ہر سرور، سوئچ، PDU، اور کولنگ یونٹ کو کنفیگریشن مینجمنٹ ڈیٹا بیس (CMDB) میں ٹریک کیا جاتا ہے۔ مقام، پاور ریٹنگ، نیٹ ورک کنکشن، بحالی کی تاریخ - یہ سب۔ یہ بنیادی لگتا ہے، لیکن بہت سی تنظیمیں اب بھی اسپریڈشیٹ میں اثاثوں کو ٹریک کرتی ہیں جو اپ ڈیٹس کے درمیان مہینوں گزرتی ہیں۔

ریئل ٹائم مانیٹرنگ۔PDU یا ریک کی سطح پر پاور ڈرا، سپلائی اور ریٹرن پوائنٹس پر درجہ حرارت اور نمی، کولنگ سسٹم کی حیثیت، UPS بیٹری کی صحت۔ جب پیرامیٹرز سیٹ پوائنٹس سے ہٹ جاتے ہیں تو الارم متحرک ہوتے ہیں۔ مقصد یہ ہے کہ مسائل کا پتہ لگانا اس سے پہلے کہ وہ ڈاؤن ٹائم کا سبب بنیں۔

صلاحیت کی منصوبہ بندی.سسٹم جانتا ہے کہ کتنی طاقت اور کولنگ کی گنجائش دستیاب ہے، کتنی استعمال میں ہے، اور کتنی مستقبل کی تعیناتی کے لیے محفوظ ہے۔ یہ نئے اعلی کثافت والے ریک کو شامل کرنے یا پرانے سرورز کے سیٹ کو ریٹائر کرنے کے اثرات کا نمونہ بنا سکتا ہے۔

تصورڈیٹا سینٹر کا ایک ڈیجیٹل جڑواں — ریک بہ ریک، ٹائل بہ ٹائل — موجودہ حالات کو ظاہر کرتا ہے اور آپریٹرز کو تبدیلیوں کی نقل کرنے کی اجازت دیتا ہے۔ قطار تین، کالم چار میں 10 کلو واٹ لوڈ شامل کرنا: کیا یہ کولنگ کی گنجائش سے زیادہ ہے؟ اس سے پہلے کہ کوئی بھی سامان لے جائے سسٹم جواب دیتا ہے۔

کارکردگی کی ریاضی جو حقیقت میں کام کرتی ہے۔

ڈیٹا سینٹر کی توانائی کی کھپت کو کم کرنا پراسرار نہیں ہے۔ طریقے اچھی طرح سمجھے جاتے ہیں۔ چیلنج نظم و ضبط کا نفاذ ہے۔

سپلائی ہوا کا درجہ حرارت بڑھائیں۔زیادہ تر ڈیٹا سینٹرز ٹھنڈے چلتے ہیں — کولنگ یونٹ کی واپسی پر 18 سے 20 ڈگری سیلسیس — کیونکہ آپریٹرز نے ہمیشہ یہی کیا ہے۔ ASHRAE کے رہنما خطوط اب 24 سے 27 ڈگری کی سفارش کرتے ہیں۔ ہر ڈگری کا اضافہ ٹھنڈک کی توانائی کو تقریباً 4 فیصد تک کم کرتا ہے۔ 20 ڈگری کے بجائے 26 ڈگری پر چلنے سے 20-25 فیصد کولنگ پاور کی بچت ہوتی ہے۔

گرم اور ٹھنڈی ہوا کے اختلاط کو ختم کریں۔گرم گلیارے کا کنٹینمنٹ، کولڈ ایزل کنٹینمنٹ، یا عمودی ایگزاسٹ ڈکٹس ٹھنڈک ہوا کو ریک کے سامنے سے مختصر سائیکل چلانے کے بجائے وہاں جانے پر مجبور کرتی ہیں۔ اکیلے کنٹینمنٹ عام طور پر کولنگ انرجی کو 15-25 فیصد تک کم کر دیتی ہے۔

متغیر رفتار ڈرائیوز استعمال کریں۔مسلسل رفتار والے پنکھے اور پمپ جزوی بوجھ پر توانائی ضائع کرتے ہیں۔ متغیر اسپیڈ ڈرائیوز ہوا کے بہاؤ اور پانی کے بہاؤ کو اصل طلب سے ملاتی ہیں۔ ریٹروفٹ ادائیگی کی مدت عام طور پر 1-3 سال ہوتی ہے۔

UPS آپریشن کو بہتر بنائیں۔زیادہ تر UPS سسٹم مسلسل ڈبل کنورژن موڈ میں چلتے ہیں - AC کو DC میں اور واپس AC میں تبدیل کرتے ہوئے یہاں تک کہ یوٹیلیٹی پاور صاف ہو۔ جب پاور کوالٹی اجازت دیتا ہے تو جدید UPS سسٹم ایکو موڈ میں تبدیل ہو سکتے ہیں، 94-96 فیصد کے بجائے 99 فیصد کارکردگی حاصل کر سکتے ہیں۔ اگر یوٹیلیٹی پاور ناکام ہو جاتی ہے تو ٹریڈ آف بیٹری میں منتقلی کا ایک مختصر وقت ہے۔ اس طرح کی منتقلی کے لیے ڈیزائن کیے گئے پاور سپلائیز کے ساتھ IT بوجھ کے لیے، خطرہ کم سے کم ہے۔

اعلی وولٹیج کی تقسیم کو اپنائیں.208V کی بجائے 415V پر بجلی تقسیم کرنے سے تقسیم کے نقصانات میں تقریباً 25 فیصد کمی آتی ہے۔ اس کے لیے ہم آہنگ PDUs اور سرور پاور سپلائیز کی ضرورت ہے، لیکن بہت سے جدید آلات اس کی حمایت کرتے ہیں۔

حقیقی دنیا کی کارکردگی کیسی دکھتی ہے۔

Shangyu CPSY کمپنیڈیٹا سینٹر کے بنیادی ڈھانچے پر توجہ دینے والا ایک ہائی ٹیک انٹرپرائز، اپنے ماڈیولر ڈیٹا سینٹر کے حل کے لیے 1.3 کے PUE کی اطلاع دیتا ہے۔ یہ کمپنی کو سونے کے درجے میں رکھتا ہے، پلاٹینم کی طرف بڑھتا ہے۔

روایتی ڈیزائن کے مقابلے میں 25 فیصد توانائی کی بچت کا دعویٰ متعدد عوامل سے ہوتا ہے۔ نظام کی سطح پر 97.4 فیصد کارکردگی کے ساتھ ماڈیولر UPS سسٹم تقسیم کے نقصانات کو کم کرتے ہیں جو بصورت دیگر 15-20 فیصد تک چلتے ہیں۔ متغیر اسپیڈ کمپریسرز اور EC پنکھے والے پریسجن ایئر کنڈیشنر مقررہ صلاحیت پر چلنے کے بجائے اصل گرمی کے بوجھ سے ملنے کے لیے کولنگ آؤٹ پٹ کو ایڈجسٹ کرتے ہیں۔ اور فزیکل لے آؤٹ — ہاٹ آئز کنٹینمنٹ، بہترین ریک اسپیسنگ، مناسب سائز کے سوراخ شدہ ٹائلوں کے ساتھ اونچا فرش — ہوا کے بہاؤ کے انتظام کو حل کرتا ہے جو کہ دوسری صورت میں بہت سی موثر سہولیات کو نقصان پہنچاتا ہے۔

کمپنی کے سرٹیفیکیشن پورٹ فولیو میں ISO 9001 (کوالٹی مینجمنٹ) اور ISO 27001 (انفارمیشن سیکیورٹی مینجمنٹ) شامل ہیں۔ اس کے صارفین کی تعیناتیوں میں امریکہ، برطانیہ، جرمنی، فرانس اور آسٹریلیا میں برآمدی تنصیبات کے ساتھ Huawei، ZTE، اور Inspur کے ساتھ شراکت داری شامل ہے۔

جہاں مائع کولنگ تصویر میں داخل ہوتا ہے۔

سالوں سے، مائع کولنگ سپر کمپیوٹنگ مراکز کے لیے ایک خاص ٹیکنالوجی تھی۔ جو تیزی سے بدل رہا ہے۔

NVIDIA H100 یا آنے والے B200 GPUs کا استعمال کرتے ہوئے AI ٹریننگ کلسٹر خالص طور پر ایئر کولڈ کنفیگریشن میں 30-50 کلو واٹ فی ریک پیدا کرتے ہیں۔ ان کثافتوں پر، ہوا کو ٹھنڈا کرنے کے لیے ہوا کے بہاؤ کی اعلی شرح کی ضرورت ہوتی ہے — بلند آواز والے پنکھے، گہری ریک، اور پھر بھی معمولی تھرمل کنٹرول۔

ڈائریکٹ ٹو چپ مائع کولنگ 60-80 فیصد گرمی کو ماخذ پر ہٹاتی ہے۔ چپس ٹھنڈے چلتے ہیں۔ پرستار آہستہ چلتے ہیں۔ کمرے کا ایئر کنڈیشنر بجلی کی فراہمی، میموری اور دیگر اجزاء سے صرف باقی گرمی کو ہینڈل کرتا ہے۔

کارکردگی کا فائدہ کافی ہے۔ ڈائریکٹ ٹو چپ کولنگ والی سہولیات 1.1 سے 1.2 کی PUE کی رپورٹ کرتی ہیں۔ تجارت کی قیمت زیادہ سرمایہ کاری، زیادہ پیچیدہ رساو کا انتظام، اور سہولت کے درجے کے پانی کے علاج کی ضرورت ہے۔

مکمل وسرجن کولنگ - پورے سرورز کو ڈائی الیکٹرک فلوڈ میں ڈوبنا - PUE کو 1.1 سے نیچے دھکیلتا ہے لیکن خصوصی رہتا ہے۔ زیادہ تر تجارتی ڈیٹا سینٹرز پہلے ڈائریکٹ ٹو چپ کولنگ کو اپنائیں گے، بعد میں مخصوص ہائی ڈینسٹی زونز کے لیے ڈوبی۔

SHANGYU ڈیٹا سینٹر پلیٹ فارم میں ہوا اور مائع کولنگ دونوں فن تعمیر کے لیے انتظامات شامل ہیں، اس بات کو تسلیم کرتے ہوئے کہ مستقبل میں اعلی کثافت کی تعیناتیوں کو سہولت کے ڈیزائن سے قطع نظر سیال پر مبنی تھرمل مینجمنٹ کی ضرورت ہوگی۔

مینجمنٹ گیپ: رد عمل سے پیشین گوئی تک

زیادہ تر ڈیٹا سینٹر آپریشنز ٹیمیں اب بھی رد عمل سے کام کرتی ہیں۔ الارم کی آواز آتی ہے۔ کوئی تحقیق کرے۔ ایک فکس لاگو کیا جاتا ہے۔ سائیکل دہرایا جاتا ہے۔

پیشین گوئی کے انتظام میں منتقلی کے لیے تین صلاحیتوں کی ضرورت ہوتی ہے جن کی بہت سی تنظیموں میں کمی ہے۔

مکمل کنفیگریشن ڈیٹا۔یہ جاننا کہ ڈیٹا سینٹر میں کیا ہے — ہر سرور، ہر سوئچ، ہر PDU، ہر کولنگ یونٹ — کی بنیاد ہے۔ درست CMDB ڈیٹا کے بغیر، صلاحیت کی منصوبہ بندی قیاس آرائی ہے۔

دانے دار ٹیلی میٹری ۔ریک کی سطح کی طاقت کی پیمائش کم از کم ہے۔ فی سرور پاور پیمائش بہتر ہے۔ ورک لوڈ لیول پاور انتساب بہترین ہے لیکن حاصل کرنا مشکل ہے۔

تجزیات جو سگنل کو شور سے ممتاز کرتے ہیں۔ایک ریک پر درجہ حرارت میں اضافے کا مطلب ایک ناکام پنکھا ہو سکتا ہے۔ آدھے ڈیٹا سینٹر میں درجہ حرارت میں اضافے کا مطلب چلر کی ناکامی ہو سکتی ہے۔ سسٹم کو اس کے مطابق جوابات میں فرق کرنے اور تجویز کرنے کی ضرورت ہے۔

SHANGYU کا DCIM پلیٹ فارم SNMP اور Modbus ڈیوائس سپورٹ، ویب پر مبنی اور ونڈوز ایپلیکیشن انٹرفیس، اور ایونٹ سے متحرک امیجنگ کے لیے نیٹ ورک کیمروں کے ساتھ انضمام فراہم کرتا ہے۔ بیان کردہ اہداف سیدھے ہیں: مہنگے ڈاؤن ٹائم کو کم کریں، مکمل ماحولیاتی کنٹرول کے ذریعے روزانہ آپریٹنگ اخراجات کو کم کریں، اور انتظام کی نمائش اور ٹریس ایبلٹی کو بہتر بنائیں۔

یہ ڈیٹا سینٹر فلور سے آگے کیوں اہمیت رکھتا ہے۔

ڈیٹا سینٹر کی توانائی کی کھپت عالمی بجلی کی طلب کا تقریباً 1 فیصد ہے۔ سیاق و سباق میں ڈالنے تک یہ تعداد چھوٹی لگتی ہے۔ یہ برطانیہ کی کل بجلی کی کھپت کے تقریباً برابر ہے۔

زیادہ اہم بات یہ ہے کہ ترقی کی شرح تیز ہو رہی ہے۔ صنعت کے تخمینوں سے پتہ چلتا ہے کہ ڈیٹا سینٹر پاور کی طلب میں 2030 تک سالانہ 10-15 فیصد اضافہ ہوتا ہے، جو کہ AI، کلاؤڈ اپنانے، اور منسلک آلات کی مسلسل توسیع کے ذریعے کارفرما ہے۔ اس شرح سے، ڈیٹا سینٹرز دہائی کے آخر تک عالمی بجلی کا 3-4 فیصد استعمال کریں گے۔

کارکردگی کے فوائد جنہوں نے پچھلی دہائی کے دوران بجلی کی کھپت کو فلیٹ رکھا وہ سرور ورچوئلائزیشن (فزیکل سرور کی تعداد میں کمی)، بہتر ڈرائیو کی کارکردگی (اسپننگ ڈسک سے SSDs میں منتقل ہونا) اور مفت کولنگ کی وسیع تعیناتی (مکینیکل ریفریجریشن کے بجائے باہر کی ہوا کا استعمال) سے حاصل ہوا۔ وہ کم لٹکنے والے پھل بڑے پیمانے پر چنے گئے ہیں۔

کارکردگی کی اگلی لہر مائع کولنگ، زیادہ وولٹیج کی تقسیم، AI-آپٹمائزڈ کولنگ کنٹرولز، اور - شاید سب سے اہم - بنیادی ڈھانچے کی صلاحیت اور اصل IT بوجھ کے درمیان بہتر صف بندی سے آئے گی۔ اس آخری ٹکڑے کے لیے اس قسم کی ریئل ٹائم مرئیت اور پیشین گوئی کرنے والے تجزیات کی ضرورت ہوتی ہے جو DCIM سسٹم فراہم کرتے ہیں لیکن کچھ سہولیات مکمل طور پر استعمال ہوتی ہیں۔

آپ کے اپنے انفراسٹرکچر کے بارے میں پوچھنے کے قابل کچھ سوالات

کیا آپ اپنے اصل PUE کو جانتے ہیں، اسپیک شیٹ پر نمبر نہیں؟اگر آپ نے UPS آؤٹ پٹ اور IT آلات کے ان پٹ پر پیمائش نہیں کی ہے تو آپ کو معلوم نہیں ہے۔ فرق آپ کا اصلی اوور ہیڈ ہے۔

کیا آپ کے کولنگ سسٹم ایک دوسرے سے لڑ رہے ہیں؟بہت سے ڈیٹا سینٹرز میں، CRAC یونٹ اوور لیپنگ درجہ حرارت اور نمی بینڈ کے ساتھ سیٹ کیے جاتے ہیں۔ ایک یونٹ dehumidifies جبکہ دوسرا humidifies کرتا ہے۔ ایک ٹھنڈا ہوتا ہے جبکہ دوسرا دوبارہ گرم ہوتا ہے۔ یہ کوئی غیر معمولی بات نہیں ہے۔ یہ بھی کارآمد نہیں ہے۔

آپ کے سرورز کی غیر فعال پاور ڈرا کیا ہے؟صنعت کے اعداد و شمار سے پتہ چلتا ہے کہ عام انٹرپرائز سرور کچھ نہیں کرتے وقت اپنی چوٹی کی طاقت کا 30-40 فیصد کھینچتے ہیں۔ غیر استعمال شدہ سرورز کو بند کرنا یا نیند میں رکھنا سب سے زیادہ ROI کارکردگی کا پیمانہ ہے۔ یہ سب سے زیادہ نظر انداز بھی ہے۔

کیا آپ سامان کی تصریحات کی خلاف ورزی کیے بغیر اپنے سپلائی ہوا کے درجہ حرارت کو دو ڈگری تک بڑھا سکتے ہیں؟غالباً ہاں۔ زیادہ تر آلات کو 25-27 ڈگری انٹیک درجہ حرارت کے لیے درجہ بندی کیا جاتا ہے۔ زیادہ تر ڈیٹا سینٹرز 20-22 ڈگری پر چلتے ہیں۔ یہ چھ ڈگری کا فرق برسوں کی غیر ضروری ٹھنڈک توانائی کی نمائندگی کرتا ہے۔

آخری بار آپ نے اپنی UPS کی کارکردگی کی تصدیق کب کی تھی؟نام پلیٹ کی کارکردگی کامل پاور فیکٹر کے ساتھ پورے بوجھ پر ماپا جاتا ہے۔ حقیقی دنیا کے پاور فیکٹر کے ساتھ جزوی بوجھ پر حقیقی دنیا کی کارکردگی 5-10 پوائنٹس کم ہو سکتی ہے۔





انکوائری بھیجیں۔

X
ہم آپ کو براؤزنگ کا بہتر تجربہ پیش کرنے ، سائٹ ٹریفک کا تجزیہ کرنے اور مواد کو ذاتی نوعیت دینے کے لئے کوکیز کا استعمال کرتے ہیں۔ اس سائٹ کا استعمال کرکے ، آپ کوکیز کے ہمارے استعمال سے اتفاق کرتے ہیں۔ رازداری کی پالیسی