...

講演資料pdf 2870KB

by user

on
Category: Documents
1

views

Report

Comments

Transcript

講演資料pdf 2870KB
データセンターのエネルギー消費の現状
~インフラの非効率に起因する問題とは?
株式会社APCジャパン
商品企画部 担当部長
佐志田 伸夫
1
Agenda
„APCとMGEについて
„データセンタを取り巻く状況
„効率の問題について
„データセンタの効率を改善する要因
Critical Power & Cooling Services – APC-MGE - 2007
2
IT業界と設備業界におけるそれぞれのマーケットリーダの統合
(2007年2月14日発表)
+
„ 配電、産業用制御ソリューションプ
ロバイダとして40 年間の実績
„ ヨーロッパにおける三相UPSメーカ
の最大手
„ 主なお客様は、電気等、ファシリティ
系
„ 25年間、革新的なソリューションを提
供
=
„ 全世界、特に北米・日本を中心に単
相UPSメーカの最大手
„ 主なお客様はIT系
Efficient Enterprise™(効率的な企業インフラ)
Critical Power & Cooling Services – APC-MGE - 2007
3
データセンターのインフラを支える製品群
InfrastruXure® solutions
Management
Power Generation
Cooling Solutions
Power and its distribution
Racks and rack distribution
Critical Power & Cooling Services – APC-MGE - 2007
4
トレンド :CPUの発熱量増加
CPUの発熱量
3.5GHz
Critical Power & Cooling Services – APC-MGE - 2007
5
トレンド : 電力コストの増加
電源と冷却への支出が増加傾向
Critical Power & Cooling Services – APC-MGE - 2007
6
データセンタ効率化のアプローチ
一時的な節約
電力設備容量は減らさず、エネルギーを節約する
構造的な節約
電力設備容量を減らし、エネルギーを節約する
例
運用の見直し
仮想化
標準化
規模の適切化
・使わない物を停める
・サーバの統合により改善
を図る
・機器の持つ電力管理機
能の活用
・サーバ数の削減による構
造的な変化
・1サーバを1台減らすごと
に約200~400w節約可能
・アプリケーションの要件
に併せてサーバの性能を
選択
・必要な場合のみ高性能
のブレードを利用
・稼働率を考慮した設備の
導入
・IT負荷の有無と関係なく発
生する電源、空調の固定損
失を抑制する
データセンターの場合、構造的な節約がより効果的で、
一時的な節約の約2倍程度の効果が期待できる
Critical Power & Cooling Services – APC-MGE - 2007
7
データセンタにおける
電力・熱の流れ
IT機器
30%
冷却機器 45%
電源他
25%
遮断器/発電機
Source: APC White Paper #114
電源:2N
空調:N+1
稼働率:定格容量の30%
Critical Power & Cooling Services – APC-MGE - 2007
8
非効率はどこで どれだけ 生じているのか?
消費電力 の99.9997% が熱に変わる
40%
50%
50%
IN
Physical
Layer
非効率
(無駄)
仕事
(有効)
99.999%
.001%
60%
Computing
Hardware
Silicon
Business
Apps
消費電力の .0003%
コンピューティングに活用
Critical Power & Cooling Services – APC-MGE - 2007
9
非効率が生み出す投資の増大
„ コンピューティングの非効率 → もっとサーバが必要
„ サーバの非効率 → さらに大きな電源と冷却が必要
„ 電源と冷却の非効率 → 著しい消費電力の増加
非効率が電力とハードウェアへの
投資を増大させる結果につながっている
Critical Power & Cooling Services – APC-MGE - 2007
10
データセンタインフラのコスト配分
System Monitoring
1%
Space
15%
Project Management
5%
Power
Equipment
18%
ライトサイジングを
実現するための課題が
ここに
Cooling
Equipment
6%
Racks
2%
Service
15%
Electricity
20%
Engineering &
Installation
18%
Source: APC White Paper #6
「データセンタと電算室のおける物理インフラ(NCPI)の総所有コストを求める」
Critical Power & Cooling Services – APC-MGE - 2007
11
データセンタの効率改善を実現する要因
→インフラの改善
1. データセンタの効率とは
2. 部屋単位の冷却・床下空調の限界
→ 列単位の冷却
3.標準化・モジュール化、ライトサイ
ジング
Critical Power & Cooling Services – APC-MGE - 2007
12
1.データセンタの効率とは
消費される総電力のうちIT機器に供給される割合
データセンタの
有用な出力
データセンタ
総入力電力
データセンタに
供給される電力
IT機器への
電力経路
データセンタの効率 =
IT負荷電力
計算
IT負荷電力
データセンタの総入力電力
Critical Power & Cooling Services – APC-MGE - 2007
13
データセンタの効率とは
IT機器への電
力経路
データセンタに
供給される電力
二次的
サポート電力
IT負荷電力
空調
照明
防火
セキュリティ
発電機
配電機器
IT機器
データセンタの
有用な出力
物理インフラ
データセンタ
の効率
計算
IT負荷電力
データセンタの
総入力電力
有用な出力
総入力
Critical Power & Cooling Services – APC-MGE - 2007
14
インフラ設備効率に関する誤解
誤 解
電源や冷却インフラの効率はIT製品
の負荷のレベルに関係なく一定である。
電源や冷却インフラはITの最大負荷
に近いところで使用されている。
電源や冷却インフラで生ずる発熱は
たいしたことはない。
実 際
電源や冷却インフラの効率はIT製品の使用負荷
が低い場合大きくダウンする。
通常ITの負荷は電源や冷却インフラの能力に対し
てかなり低いところで使用されている。
これは非常に大きいので効率を考える上で特に電
源および冷却インフラシステムでの非効率を検証
しなければならない。
Critical Power & Cooling Services – APC-MGE - 2007
15
電源(UPS)の負荷率による効率の変化
効率
EFFICIENCY
UPS internal power consumption (loss)
90%
Power delivered to load
89%
Most data centers
operate in this range
No-load loss is
present even at
no load
0%
0%
60%
75%
10%
80%
20%
84%
30%
86%
40%
91%
90%
No-load portion of loss
stays constant from full
load all the way down to
zero load
88%
50%
60%
70%
80%
90%
100%
UPS load
UPSの負荷率
% of full power rating
Critical Power & Cooling Services – APC-MGE - 2007
16
2. 部屋単位冷却、床下空調の限界
→列単位の冷却
Central Air Handling Unit
排気ダクト有
Computer Room Air Handler
排気ダクト無
部屋単位の冷却
InRow Air Handler
列単位の冷却
Critical Power & Cooling Services – APC-MGE - 2007
17
非効率を拡大する部屋単位冷却の限界
従来
部屋単位
列単位
ラック単位
APC White Paper #130 より
Critical Power & Cooling Services – APC-MGE - 2007
18
床下空調の限界
一般的なデータセンターの床下空調
1ラックあたり
300立方フィート/分 (510立方メートル/時(CMH))
300
cfm
300
cfm
300
cfm
300
cfm
Critical Power & Cooling Services – APC-MGE - 2007
19
フリーアクセスフロアの限界
フロアタイルからの通気による冷却能力
ラック電力( kW
)
12
フリーアクセス床を使った空調は
1ラック当たり3kW-7kW 程度が限界
10
穴開きタイル
8
25℃-40℃
(ブレードサーバ)
6
タイル1枚当たり
のエアフロー(横
軸)で冷却可能な
ラック電力
4
2
0
25℃-35℃
(PCサーバ)
0
格子タイル
[170]
[340]
[510]
[680]
[850]
[1020]
[1190]
[1360]
[1530]
[1700] CMH
【100】
【200】
【300】
【400】
【500】
【600】
【700】
【800】
【900】
【1000】 CFM
600角のタイル1枚あたりの風量 [立方メ-トル/時]、【CFM】
Critical Power & Cooling Services – APC-MGE - 2007
20
部屋単位冷却による非効率
従来の冷却(部屋単位)
Critical Power & Cooling Services – APC-MGE - 2007
21
列単位の冷却
InRow Cooling
コールドアイル
コールドアイル
InfraStruXure InRow RC
Critical Power & Cooling Services – APC-MGE - 2007
22
列単位の冷却システムが効率をアップする
„ IT機器の排気(熱気)が冷気と混ざる前に冷却装置に戻され
る為 システム効率は最大化される。
„ 発熱源のすぐ隣に冷却装置があり、空気を最短パスで循環
させるので、部屋空調のように大容量の冷気を無駄に移動
させるエネルギーが不要になり、ファンの消費エネルギーは
従来の半分。
„ エアフローの流れが明確かつ予測可能であり各ラック毎の
許容発熱量も予測可能で効率を最大化できる。
„ 部屋単位の空調では不可能だった 必要なラックの必要な
発熱量に応じた容量制御が可能。
„ 高能力・高効率・高密度対応
7 – 15% の低減が可能
Critical Power & Cooling Services – APC-MGE - 2007
23
3. インフラのモジュール化
従来のデータセンタ
Critical Power & Cooling Services – APC-MGE - 2007
24
オーバーサイジングによる非効率
将来の稼働率予測は困難
将来の稼働率予測は困難
120%
100%
容量使用率
80%
データセンタ全体の容量
導入済みの容量
予想される負荷
60%
オーバーサイジングによる無駄
40%
実際の負荷
20%
0%
0
1
2
3
4
5
6
7
8
9
10
経過年数
Critical Power & Cooling Services – APC-MGE - 2007
25
ケーススタディ(オーバーサイジング)
9 ある企業が保有している40箇所のデータセンタ(サーバルーム)を調査
9 電源容量規模は40kW~3MW、総計19MW
9 実際の平均稼働率は38%
„ 低い稼働率=過剰投資(オーバーサイジング)の内訳:
† UPS 14億円
† CRAC(電算室専用空調設備)9億円
† 非効率性による浪費電力費(10年間の予想値)14.5億円
† 不要な容量に対する保守費(10年間の予想値)16億円
(APC White Paperより)
10年間のTCOの浪費合計53.5億円
1ラック当たり平均
1ラック当たり平均 111万円の無駄
111万円の無駄
(10年間)
(10年間)
Critical Power & Cooling Services – APC-MGE - 2007
26
電源のモジュール化
•インテリジェンスモジュールは1+1冗長構成
• パワーモジュールを(N+1)構成で編成
• バッテリモジュールを並列で構成
• モジュールがホットスワップ可能(スタティックスイッチは除く)
• 40kVA/40kW 容量;(N+1)冗長構成
• 10kVA/10kWパワーモジュール単位で追加可能
• 奥行き915mmのNetShelter VX耐震ラックに収納
• 高さ x 幅 x 奥行き = (2065mm x 595mm x 915mm)
• 内蔵スタティック・スイッチは125%定格連続運転
Critical Power & Cooling Services – APC-MGE - 2007
27
標準化・モジュール化されたインフラ
In rack Load
Breaker
Modular UPS
Cable Management
Modular
cooling
Multi vendor Rack
Critical Power & Cooling Services – APC-MGE - 2007
28
ライトサイジングなデータセンタ
The Key: Scalability in both supply and distribution
Critical Power & Cooling Services – APC-MGE - 2007
29
ライトサイジングにより無駄を削減
•必要に応じて拡張可能(無駄をなくす)
•すばやい設置と移動が可能
•標準化されたモジュール構造
120%
100%
データセンタ全体の容量
予想される負荷
容量使用率
80%
60%
導入済みの容量
オーバーサイジングによる無駄
40%
実際の負荷
20%
0%
0
1
2
3
4
5
6
7
8
9
10
経過年数
Critical Power & Cooling Services – APC-MGE - 2007
30
データセンタの効率向上によるメリット
データセンタ
の効率
30%
35%
70%
節約
インフラ
機器
データセンタの
総電力消費量
節約
インフラ
機器
インフラ
機器
IT
負荷
何もしない
IT
負荷
IT
負荷
物理インフラの
物理インフラ
の適正化
効率を10%改善
Source: APC White Paper #113 「データセンタの電力効率のモデル化」
Critical Power & Cooling Services – APC-MGE - 2007
31
今すぐ実行できるエネルギー削減
節約量
指針
制約
空調機器の省電力
モード
4 – 15%
多くの空調機器に省電力モードがある
一部のデータセンタでは空調機器に省電
力モードがあるが機能が無効になってい
る
新しい設計に向いてい
る
より効率的な設備配
置
5-12%
空調機器の適切な配置による
ホットアイルとコールドアイルの
調整を含む
新しい設計に向いてい
る
エネルギー効率が高
い照明の設置
1 – 3%
時刻や動作に基づいて一部またはすべて
の照明の電源を切る
より効率が高い照明技術を使用する
照明の電源も冷却が必要なのでコストが
2 倍になることに注意
ほとんどのデータセンタ
でメリットが得られる
ブランクパネルの設
置
1 – 2%
サーバの吸気口の温度が低下する
CRAC に吸入される空気の温度が高くな
るのでエネルギーも節約される
新旧に関係なくすべての
データセンタに向いてい
る
Critical Power & Cooling Services – APC-MGE - 2007
32
まとめ
„データセンタのエネルギーの流れ
総入力電力の多くが物理インフラに
„データセンタの効率改善のポイントは物理インフラ
列単位の冷却
標準化・モジュール化・ライトサイジング
Critical Power & Cooling Services – APC-MGE - 2007
33
ご静聴ありがとうございました。
Data Centers Go Green
A green approach saves!
Efficient Enterprise ™
Critical Power & Cooling Services – APC-MGE - 2007
34
Fly UP