Comments
Description
Transcript
講演資料pdf 2870KB
データセンターのエネルギー消費の現状 ~インフラの非効率に起因する問題とは? 株式会社APCジャパン 商品企画部 担当部長 佐志田 伸夫 1 Agenda APCとMGEについて データセンタを取り巻く状況 効率の問題について データセンタの効率を改善する要因 Critical Power & Cooling Services – APC-MGE - 2007 2 IT業界と設備業界におけるそれぞれのマーケットリーダの統合 (2007年2月14日発表) + 配電、産業用制御ソリューションプ ロバイダとして40 年間の実績 ヨーロッパにおける三相UPSメーカ の最大手 主なお客様は、電気等、ファシリティ 系 25年間、革新的なソリューションを提 供 = 全世界、特に北米・日本を中心に単 相UPSメーカの最大手 主なお客様はIT系 Efficient Enterprise™(効率的な企業インフラ) Critical Power & Cooling Services – APC-MGE - 2007 3 データセンターのインフラを支える製品群 InfrastruXure® solutions Management Power Generation Cooling Solutions Power and its distribution Racks and rack distribution Critical Power & Cooling Services – APC-MGE - 2007 4 トレンド :CPUの発熱量増加 CPUの発熱量 3.5GHz Critical Power & Cooling Services – APC-MGE - 2007 5 トレンド : 電力コストの増加 電源と冷却への支出が増加傾向 Critical Power & Cooling Services – APC-MGE - 2007 6 データセンタ効率化のアプローチ 一時的な節約 電力設備容量は減らさず、エネルギーを節約する 構造的な節約 電力設備容量を減らし、エネルギーを節約する 例 運用の見直し 仮想化 標準化 規模の適切化 ・使わない物を停める ・サーバの統合により改善 を図る ・機器の持つ電力管理機 能の活用 ・サーバ数の削減による構 造的な変化 ・1サーバを1台減らすごと に約200~400w節約可能 ・アプリケーションの要件 に併せてサーバの性能を 選択 ・必要な場合のみ高性能 のブレードを利用 ・稼働率を考慮した設備の 導入 ・IT負荷の有無と関係なく発 生する電源、空調の固定損 失を抑制する データセンターの場合、構造的な節約がより効果的で、 一時的な節約の約2倍程度の効果が期待できる Critical Power & Cooling Services – APC-MGE - 2007 7 データセンタにおける 電力・熱の流れ IT機器 30% 冷却機器 45% 電源他 25% 遮断器/発電機 Source: APC White Paper #114 電源:2N 空調:N+1 稼働率:定格容量の30% Critical Power & Cooling Services – APC-MGE - 2007 8 非効率はどこで どれだけ 生じているのか? 消費電力 の99.9997% が熱に変わる 40% 50% 50% IN Physical Layer 非効率 (無駄) 仕事 (有効) 99.999% .001% 60% Computing Hardware Silicon Business Apps 消費電力の .0003% コンピューティングに活用 Critical Power & Cooling Services – APC-MGE - 2007 9 非効率が生み出す投資の増大 コンピューティングの非効率 → もっとサーバが必要 サーバの非効率 → さらに大きな電源と冷却が必要 電源と冷却の非効率 → 著しい消費電力の増加 非効率が電力とハードウェアへの 投資を増大させる結果につながっている Critical Power & Cooling Services – APC-MGE - 2007 10 データセンタインフラのコスト配分 System Monitoring 1% Space 15% Project Management 5% Power Equipment 18% ライトサイジングを 実現するための課題が ここに Cooling Equipment 6% Racks 2% Service 15% Electricity 20% Engineering & Installation 18% Source: APC White Paper #6 「データセンタと電算室のおける物理インフラ(NCPI)の総所有コストを求める」 Critical Power & Cooling Services – APC-MGE - 2007 11 データセンタの効率改善を実現する要因 →インフラの改善 1. データセンタの効率とは 2. 部屋単位の冷却・床下空調の限界 → 列単位の冷却 3.標準化・モジュール化、ライトサイ ジング Critical Power & Cooling Services – APC-MGE - 2007 12 1.データセンタの効率とは 消費される総電力のうちIT機器に供給される割合 データセンタの 有用な出力 データセンタ 総入力電力 データセンタに 供給される電力 IT機器への 電力経路 データセンタの効率 = IT負荷電力 計算 IT負荷電力 データセンタの総入力電力 Critical Power & Cooling Services – APC-MGE - 2007 13 データセンタの効率とは IT機器への電 力経路 データセンタに 供給される電力 二次的 サポート電力 IT負荷電力 空調 照明 防火 セキュリティ 発電機 配電機器 IT機器 データセンタの 有用な出力 物理インフラ データセンタ の効率 計算 IT負荷電力 データセンタの 総入力電力 有用な出力 総入力 Critical Power & Cooling Services – APC-MGE - 2007 14 インフラ設備効率に関する誤解 誤 解 電源や冷却インフラの効率はIT製品 の負荷のレベルに関係なく一定である。 電源や冷却インフラはITの最大負荷 に近いところで使用されている。 電源や冷却インフラで生ずる発熱は たいしたことはない。 実 際 電源や冷却インフラの効率はIT製品の使用負荷 が低い場合大きくダウンする。 通常ITの負荷は電源や冷却インフラの能力に対し てかなり低いところで使用されている。 これは非常に大きいので効率を考える上で特に電 源および冷却インフラシステムでの非効率を検証 しなければならない。 Critical Power & Cooling Services – APC-MGE - 2007 15 電源(UPS)の負荷率による効率の変化 効率 EFFICIENCY UPS internal power consumption (loss) 90% Power delivered to load 89% Most data centers operate in this range No-load loss is present even at no load 0% 0% 60% 75% 10% 80% 20% 84% 30% 86% 40% 91% 90% No-load portion of loss stays constant from full load all the way down to zero load 88% 50% 60% 70% 80% 90% 100% UPS load UPSの負荷率 % of full power rating Critical Power & Cooling Services – APC-MGE - 2007 16 2. 部屋単位冷却、床下空調の限界 →列単位の冷却 Central Air Handling Unit 排気ダクト有 Computer Room Air Handler 排気ダクト無 部屋単位の冷却 InRow Air Handler 列単位の冷却 Critical Power & Cooling Services – APC-MGE - 2007 17 非効率を拡大する部屋単位冷却の限界 従来 部屋単位 列単位 ラック単位 APC White Paper #130 より Critical Power & Cooling Services – APC-MGE - 2007 18 床下空調の限界 一般的なデータセンターの床下空調 1ラックあたり 300立方フィート/分 (510立方メートル/時(CMH)) 300 cfm 300 cfm 300 cfm 300 cfm Critical Power & Cooling Services – APC-MGE - 2007 19 フリーアクセスフロアの限界 フロアタイルからの通気による冷却能力 ラック電力( kW ) 12 フリーアクセス床を使った空調は 1ラック当たり3kW-7kW 程度が限界 10 穴開きタイル 8 25℃-40℃ (ブレードサーバ) 6 タイル1枚当たり のエアフロー(横 軸)で冷却可能な ラック電力 4 2 0 25℃-35℃ (PCサーバ) 0 格子タイル [170] [340] [510] [680] [850] [1020] [1190] [1360] [1530] [1700] CMH 【100】 【200】 【300】 【400】 【500】 【600】 【700】 【800】 【900】 【1000】 CFM 600角のタイル1枚あたりの風量 [立方メ-トル/時]、【CFM】 Critical Power & Cooling Services – APC-MGE - 2007 20 部屋単位冷却による非効率 従来の冷却(部屋単位) Critical Power & Cooling Services – APC-MGE - 2007 21 列単位の冷却 InRow Cooling コールドアイル コールドアイル InfraStruXure InRow RC Critical Power & Cooling Services – APC-MGE - 2007 22 列単位の冷却システムが効率をアップする IT機器の排気(熱気)が冷気と混ざる前に冷却装置に戻され る為 システム効率は最大化される。 発熱源のすぐ隣に冷却装置があり、空気を最短パスで循環 させるので、部屋空調のように大容量の冷気を無駄に移動 させるエネルギーが不要になり、ファンの消費エネルギーは 従来の半分。 エアフローの流れが明確かつ予測可能であり各ラック毎の 許容発熱量も予測可能で効率を最大化できる。 部屋単位の空調では不可能だった 必要なラックの必要な 発熱量に応じた容量制御が可能。 高能力・高効率・高密度対応 7 – 15% の低減が可能 Critical Power & Cooling Services – APC-MGE - 2007 23 3. インフラのモジュール化 従来のデータセンタ Critical Power & Cooling Services – APC-MGE - 2007 24 オーバーサイジングによる非効率 将来の稼働率予測は困難 将来の稼働率予測は困難 120% 100% 容量使用率 80% データセンタ全体の容量 導入済みの容量 予想される負荷 60% オーバーサイジングによる無駄 40% 実際の負荷 20% 0% 0 1 2 3 4 5 6 7 8 9 10 経過年数 Critical Power & Cooling Services – APC-MGE - 2007 25 ケーススタディ(オーバーサイジング) 9 ある企業が保有している40箇所のデータセンタ(サーバルーム)を調査 9 電源容量規模は40kW~3MW、総計19MW 9 実際の平均稼働率は38% 低い稼働率=過剰投資(オーバーサイジング)の内訳: UPS 14億円 CRAC(電算室専用空調設備)9億円 非効率性による浪費電力費(10年間の予想値)14.5億円 不要な容量に対する保守費(10年間の予想値)16億円 (APC White Paperより) 10年間のTCOの浪費合計53.5億円 1ラック当たり平均 1ラック当たり平均 111万円の無駄 111万円の無駄 (10年間) (10年間) Critical Power & Cooling Services – APC-MGE - 2007 26 電源のモジュール化 •インテリジェンスモジュールは1+1冗長構成 • パワーモジュールを(N+1)構成で編成 • バッテリモジュールを並列で構成 • モジュールがホットスワップ可能(スタティックスイッチは除く) • 40kVA/40kW 容量;(N+1)冗長構成 • 10kVA/10kWパワーモジュール単位で追加可能 • 奥行き915mmのNetShelter VX耐震ラックに収納 • 高さ x 幅 x 奥行き = (2065mm x 595mm x 915mm) • 内蔵スタティック・スイッチは125%定格連続運転 Critical Power & Cooling Services – APC-MGE - 2007 27 標準化・モジュール化されたインフラ In rack Load Breaker Modular UPS Cable Management Modular cooling Multi vendor Rack Critical Power & Cooling Services – APC-MGE - 2007 28 ライトサイジングなデータセンタ The Key: Scalability in both supply and distribution Critical Power & Cooling Services – APC-MGE - 2007 29 ライトサイジングにより無駄を削減 •必要に応じて拡張可能(無駄をなくす) •すばやい設置と移動が可能 •標準化されたモジュール構造 120% 100% データセンタ全体の容量 予想される負荷 容量使用率 80% 60% 導入済みの容量 オーバーサイジングによる無駄 40% 実際の負荷 20% 0% 0 1 2 3 4 5 6 7 8 9 10 経過年数 Critical Power & Cooling Services – APC-MGE - 2007 30 データセンタの効率向上によるメリット データセンタ の効率 30% 35% 70% 節約 インフラ 機器 データセンタの 総電力消費量 節約 インフラ 機器 インフラ 機器 IT 負荷 何もしない IT 負荷 IT 負荷 物理インフラの 物理インフラ の適正化 効率を10%改善 Source: APC White Paper #113 「データセンタの電力効率のモデル化」 Critical Power & Cooling Services – APC-MGE - 2007 31 今すぐ実行できるエネルギー削減 節約量 指針 制約 空調機器の省電力 モード 4 – 15% 多くの空調機器に省電力モードがある 一部のデータセンタでは空調機器に省電 力モードがあるが機能が無効になってい る 新しい設計に向いてい る より効率的な設備配 置 5-12% 空調機器の適切な配置による ホットアイルとコールドアイルの 調整を含む 新しい設計に向いてい る エネルギー効率が高 い照明の設置 1 – 3% 時刻や動作に基づいて一部またはすべて の照明の電源を切る より効率が高い照明技術を使用する 照明の電源も冷却が必要なのでコストが 2 倍になることに注意 ほとんどのデータセンタ でメリットが得られる ブランクパネルの設 置 1 – 2% サーバの吸気口の温度が低下する CRAC に吸入される空気の温度が高くな るのでエネルギーも節約される 新旧に関係なくすべての データセンタに向いてい る Critical Power & Cooling Services – APC-MGE - 2007 32 まとめ データセンタのエネルギーの流れ 総入力電力の多くが物理インフラに データセンタの効率改善のポイントは物理インフラ 列単位の冷却 標準化・モジュール化・ライトサイジング Critical Power & Cooling Services – APC-MGE - 2007 33 ご静聴ありがとうございました。 Data Centers Go Green A green approach saves! Efficient Enterprise ™ Critical Power & Cooling Services – APC-MGE - 2007 34