...

PCI Express テクノロジ

by user

on
Category: Documents
3

views

Report

Comments

Transcript

PCI Express テクノロジ
クラスタ特集号: ハイパフォーマンス・コンピューティング
仮想化
ハイパフォーマンス・コンピューティング・クラスタに活かす
PCI Express テクノロジ
PCI(Peripheral Component Interconnect)Express は、優れた拡張性と広バン
ド幅を誇る、標準ベースの I/O 接続技術だ。DellTM HPCC では、InfiniBand インター
コネクトや、Dell PERC(PowerEdgeTM Expandable RAID Controller)ストレージ
など、各種の PCI Express 対応製品が利用できる。デルでは、PCI Express の利点
を 検 証 す る た め 、 前 世 代 の PCI-X ( PCI Extended ) と PCI Express 対 応 の
InfiniBand および PERC をそれぞれ使用し、Dell HPCC の性能を比較した。本稿で
は、そのテスト結果について解説したい。
文=RINKU GUPTA、SAEED IQBAL, PH.D.、ANDREW BACHLER
関連分野:
ベンチマーク
クラスタリング
Dell PowerEdge
サーバ
ハイパフォーマンス・
コンピューティング
(HPC)
Infiniband
インターコネクト
PCI Express
パフォーマンス
全カテゴリ:
www.dell.com/powersolutions。
ハイパフォーマンス・コンピューティング・クラスタ(HPCC)は、業 PCI、PCI-X、PCI Express の歴史
界標準のサーバ、ストレージ、インターコネクトを使って、旧来の
大型スーパーコンピュータなみの性能を経済的に実現するシス
テムだ。テクノロジの進化に伴い、多種多様な製品が入手でき
る今、クラスタに最適なコンポーネントを厳選することは難しくなく
なった。たとえば現在なら、HPCCのインターコネクトに、
InfiniBandやMyricom Myrinetなどの高速テクノロジを利用す
ることも可能なのだ。他にも、サーバ技術はデュアルコア・プロセッ
サへと変遷しつつあるし、ストレージ技術は、シリアルATA
(SATA)やシリアル接続SCSI(SAS)が普及の兆しを見せてい
る。このSASは、SCSIパラレル・ケーブルに代わる技術として開
発されたものだ。ポイント・トゥ・ポイント接続を使い、従来のパラ
レル技術(SCSI)を凌ぐ多くのメリットをもたらす。このように次々
と新技術が開発されるなか、PCI(Peripheral Component
Interconnect)も進化を遂げるのは当然のことと言えよう。こうし
て、前世代のPCIより高いI/Oバス・スループットを発揮すべく開
発されたのが、PCI Expressだ。
PCI Expressテクノロジの登場により、HPCC内のコンポー
ネントも選択の幅が広がった。特に、InfiniBandを始めとするク
ラスタ・インターコネクトや、Dell PERC(PowerEdge
Expandable RAID Controller)などのRAIDストレージでは、
PCI Express対応のコンポーネントを採用する意義が大きい。
80年代のPCは、典型的なI/OインタフェースとしてISA
(Instruction Set Architecture)を採用していた。これは、
4.77 MHzで稼動する16ビット幅のI/Oバスで、バンド幅は9
MB/秒だ。次の世代では、ISAを拡張したテクノロジや、新しい
実装法が登場した。たとえば、拡張ISA(EISA)は8 MHz、32
ビット幅を達成し、VESAローカルバス(VLバス)と呼ばれるテク
ノロジも、32ビット幅を実現している。しかし、これらのI/Oバスは
拡張面に問題があった。3台以上のデバイスを同時接続すると、
通信するデバイス間に干渉が生じてしまうのだ。
そこで、1992年に登場したのがPCIバスである。インテルが中
心となって策定されたPCIバス規格は、ISAとVLバスの機能を
取り入れながらも改善を図っている。PCIでは、フロントサイド・
バス(FSB)経由でCPUとI/Oデバイス間にブリッジを導入した。
これで、旧I/Oテクノロジの弱点だった拡張性を強化している。こ
の画期的な手法により、PCIバスには最大5個のデバイスが接
続できるようになった。PCIバスは、32ビット幅、33 MHzの動作
速度、132 MB/秒のバンド幅を提供する。以来PCIは、サーバ
の標準I/Oインターコネクトとして広く普及してきた。PICにはその
後も改善や強化が加えられ、性能が伸び続けている。64ビット、
133 MHzを提供するPCI-X(PCI Extended)では、最大バン
1
ド幅が1 GB/秒に達した 。
1 PCI Express の詳細:
www.intel.com/technology/pciexpress/devnet
www.dell.com/powersolutions
『Dell Power Solutions 2005 年 11 月号』より抜粋 © 2005 デル株式会社 All rights reserved.
2005 年 11 月
DELL POWER SOLUTIONS
1
クラスタ特集号: ハイパフォーマンス・コンピューティング
バンド幅の上限が1 GB/秒に達したPCI-Xの場合、これ以
上の性能強化は採算面から現実的でないと考えられている。
しかし、今日使われているI/Oデバイスには多種多様なニーズが
生じているため、コンピュータ・メーカの中には新しいバス技術を
考案する企業も出てきた。デバイス間の通信技術は、従来の
共有バス・テクノロジから、ポイント・トゥ・ポイント(直接接続)テ
クノロジへと移行しつつあるのが最近の動向だ。
PCI Expressは階層型アーキテクチャのため、拡張性が増
すと共に、下位互換への対応もスムーズだ。PCIとも互換性が
あるので、たとえば、前バージョンのPCIで使っていたコンポーネン
トをPCI Expressスロットで使うことができる。他にも、シリコン
技術は他のレイヤ(層)を変更しなくても改良できるし、物理レ
イヤの実装にファイバチャネルのような技術が利用できるなど、
階層構造の利点は尽きない。
PCI Expressアーキテクチャは、5つのレイヤから構成される。
最下層にあるのが物理レイ
最近のマイクロプロセッサとI/Oデバイス(10 Gigabit Ethernet、 ヤだ。ここには、低電圧ディ
PCI Expressは階層型
10 Gbpsファイバチャネル、InfiniBand、SATA、SASなど)は、 ファレンシャルを採用した1組
PCI-Xの能力を超えたバンド幅を必要とする。PCI-Xは、PCIを の専用シリアルチャネルが搭
アーキテクチャのため、
基に拡張した技術のため、パラレル共有バスを使用する点など、 載されており、広バンド幅を
拡張性が増すと共に、
基本的なアーキテクチャは両者とも似通っている。PCIおよび
提供する。各チャネルは、デ
PCI-Xアーキテクチャの場合、I/Oデバイスは、I/Oブリッジを通し ュアル・シンプレックス対応な
下位互換の対応も
てメモリ・コントローラに接続される。バスに接続している全デバイ ので、信号の送受信が同時
2
スムーズだ。
スは、互いにそのバスを共有しなければならないため、I/Oブリッ
に行える 。物理レイヤの上
ジの拡張性には限界が生じる。さらに、PCI-X 2.0バスに対す
にあるのがリンク・レイヤだ。
たとえば、PCIとも互換性が
るポイント・トゥ・ポイント接続では、1台のI/Oデバイスしか接続 ここでは伝送データの整合
あるので、前バージョンの
できない。
性を守るため、パケット順と
エラー検出が追加される。リ
PCIで使っていた
このようなPCI-Xアーキテクチャと大きく異なるのが、PCI
ンク・レイヤの上には、トラン
Expressアーキテクチャだ。PCI Expressは、デバイスの接続に
コンポーネントは、
シリアル・インタフェースを使うのが特徴で、高速なポイント・トゥ・ ザクション・レイヤがある。ここ
では、上層から渡された読
PCI Expressスロットで
ポイント接続を実現している。1つのPCI Expressスロットからは、
み込み/書き込み要求を受
レーンと呼ばれるデータの通り道が複数提供されるので、PCI
使うことができる。
Expressのポイント・トゥ・ポイント・アーキテクチャは拡張性にも け取り、要求内容に応じて
パケットを作成する。この層
優れるのだ。PCI Expressアーキテクチャは、いくつかのエンドポ
イント(終点)を持ったホスト・ブリッジを採用している。デバイスは では、32ビットおよび64ビット
これらのエンドポイントに接続され、トラフィックはホストブリッジ経 のアドレス処理がサポート可能だ。また、標準的なパケット切り
由で流れる。さらにデバイス数を増やしたければ、ホスト・ブリッジ 替え機能もいくつか提供する。トランザクション・レイヤの上に位
のエンドポイントにスイッチを追加すれば良い。こうして、このスイ 置するのがソフトウェア・レイヤである。ここでは主に、ドライバ・ソ
ッチに、さらに数台のデバイスを接続することができるのだ。ピア・ フトウェアを扱い、I/Oデバイスに対する読み込み/書き込み要求
トゥ・ピア構成を使えば、デバイス間のトラフィックをスイッチ経由 を作成する。最上位にあるのが、構成/OSレイヤだ。ここでは、
で流すことも可能だ。この場合、トラフィックはホストブリッジを経 PCIプラグ&プレイ仕様を利用して、接続されているデバイスの
初期化、列挙、構成を行う。これらの処理は、下層のソフトウェ
由する必要がない。
ア・レイヤと連携しながら実行するが、これは、デバイスの初期
PCI Expressアーキテクチャは、PCI Expressリンク経由で 化とシステム構成を確実に行うための工夫だ。現在、PCI
I/Oデバイスを直接メモリ・コントローラに接続するため、性能が
Expressコネクタには様々な形状が提供されており、幅広く選
大幅に向上する。1つのPCI Expressリンクには複数のレーンを べるようになっている3。
搭載することが可能で、1レーンあたり250 MB/秒の双方向バ
PCI Expressからは多くのアドバンスト機能も提供されるが、
ンド幅が提供される。したがって、8x PCI Expressチャネル(リ
特に重要なのは、アドバンスト・パワー・マネジメント、リアルタイ
ンクごとに8レーン)なら、各方向とも2 GB/秒の性能が達成され
るのだ。最も基本的なPCI Expressスロットは1xだ。これは、デ ム・トラフィックのサポート、ホットスワップおよびホットプラグ対応、
ータ経路が1レーンのみであることを示す。搭載するレーン数によ データの整合性、エラー処理だ。PCI Expressは、電力消費
量を調整することができるが、省電力を主目的に採用されるこ
って、2x、4x、8x、16xなどのスロットが実用化されている。
とはない。マルチメディア・デバイスの中には、仮想チャネルを用
いることで、PCI Expressがサポートするリアルタイム処理を保
証するものがある。PCI Expressは、I/Oデバイスのホットプラグ
やホットプラグを標準サポートするので、サーバのダウン時間削
減に効果的だ。
PCI Express アーキテクチャ
2 www.dell.com/powersolutions
2
詳細の参照先: www.express-lane.org
3
詳細の参照先: www.PCI-sig.org
『Dell Power Solutions 2005 年 11 月号』より抜粋 © 2005 デル株式会社 All rights reserved.
2005 年 11 月
DELL POWER SOLUTIONS
クラスタ特集号: ハイパフォーマンス・コンピューティング
クラスタのインターコネクトは、業界標準の演算コンポーネント間
を結ぶ、という重要な役割を担っている。ここ数年、高速インタ
ーコネクトの開発が相次いでおり、通信量の多いアプリケーショ
ンを扱うクラスタにとっては朗報だ。これらの多くはメーカ独自の
技術を採用しているが(たとえば、MyrinetやQuadrics QsNet
など)、業界標準に基づく広バンド幅&低レンテンシ技術を開
発しようという動きも広がった。こうして生まれたのが、
InfiniBandである。これは、ハードウェアおよびソフトウェア・メー
カ各社が参加する業界団体、InfiniBand Trade
Association(IBTA)4が策定したものだ。
InfiniBandアーキテクチャは、ポイント・トゥ・ポイント方式のス
イッチ・ファブリックを採用しており、様々なエンドポイントを接続
する。エンドポイントには、ストレージ・コントローラ、ネットワーク・
インタフェース・カード(NIC)、ホスト・システムへのインタフェース
が搭載可能だ。ホスト・チャネル・アダプタ(HCA)は、ホストへの
インタフェースを提供するデバイスだ。従来、HCAは、標準の
PCIやPCI-Xバス経由でホスト・プロセッサに接続されていた。
今では、ほとんどのデル・サーバがPCI Expressインタフェースを
サポートしているため、HCAとホスト・プロセッサの接続には、主
にPCI Expressが使われている。
InfiniBandアーキテクチャは、1X、4X、12Xというリンク速度
を定義しており、それぞれ、2.5 Gbps、10 Gbps、30 Gbpsの
データ転送速度をサポートする。InfiniBandは、物理レイヤで
8B/10Bエンコードを使う。IBTAは、2004年9月にダブル・デー
タ・レート(DDR)と、クォッド・データ・レート(QDR)モードの定
義を含むInfiniBand 1.2仕様を完成させた。これらのモードは、
既存の1X、4X、12X InfiniBandリンク上に伝送する信号速
度を高速化するもので、バンド幅を事実上、倍速(DDR)また
は4倍速(QDR)化する。現在の4X InfiniBand HCAは、仕
様上、10 Gbpsをサポートすることになっているが、従来のPCIXバス上でこの速度を達成することは不可能だ。PCI-Xバスは
双方向の最大スループットが1 GB/秒のため、ボトルネックの主
原因となってしまい、InfiniBand 4Xカードに備わる能力を十分
に引き出すことができない。一方、このようなボトルネックを解消
するために開発されたPCI Expressバスなら、InfiniBandカー
ドが達成し得るバンド幅をフル活用することができる。デルは、
Topspin Communications社とのパートナーシップを通して、
InfiniBandハードウェアとソフトウェアをDell HPCCでサポートし
ている。
Dell HPCCでは、8∼256ノード構成のパッケージ製品を提
供しており、PCI Expressコンポーネントも含まれる。Dell
PowerEdge 1850やPowerEdge 1855などのサーバならPCI
Expressが利用可能だ。PowerEdge 1855の場合、最大10
台のサーバ・ブレードがシャーシに収納でき、InfiniBandドーター
カードも搭載できる。また、PowerEdge 1850では、PCI
Expressスロット対応のHCAが利用できる。詳細は、
www.dell.com/hpccを参照されたい。
4 InfiniBand と IBTA の詳細: visit www.infinibandta.org
www.dell.com/powersolutions
時間(μ秒)
Dell HPCC の PCI Express と
クラスタ・インターコネクト
メッセージサイズ(バイト)
図1. 小さなメッセージを処理した
Pallas Ping-Pongレイテンシ・テスト結果
InfiniBand の性能分析
去る2004年11月、デル・スケーラブル・システム・グループは、
Dell HPCCとInfiniBand HCAを使い、PCI ExpressとPCI-X
の比較テストを実施した。テスト環境では、同等に構成した16
台のDell PowerEdge 1850サーバを用意し、Red Hat®
Enterprise Linux® 3 OSを稼動させ、InfiniBand HCAとスイ
ッチを使って相互接続した。各PowerEdge 1850サーバには、
2基のインテル® Xeon® プロセッサ3.2 GHz(800 MHzの
FSB)と4 GBのメモリを搭載している。
PCI-Xシステムをセットアップするため、サーバにPCI-Xライザ
を装着した。このライザから、100 MHzと133 MHzで動作する
計2個のPCI-Xスロットが提供される。InfiniBandカードは、
133 MHzスロットの方に挿入した。PCI Expressシステムのセ
ットアップには、各サーバにPCI Expressライザを使った。このラ
イザから4xと8xのPCI Expressスロットが提供されるので、
InfiniBandカードを8xスロットの方に挿入した。今回、PCI-Xと
PCI Expressのテストで使用したInfiniBandコンポーネントは、
デルのパートナー、Topspin Communications社製のものだ。
PCI-XおよびPCI Express HCAには、それぞれ4xのデュアル・
ポートが搭載されている。
今回のテストで使用したベンチマークは、Pallas Message
Passing Interface (MPI)Benchmarks(PMB) 2.2.1と、
NASA Advanced Supercomputing(NAS)Parallel
Benchmarks(NPB)2.4の2つだ。いずれも、業界で広く使わ
れている性能評価ツールだ。
Pallas ベンチマーク・テスト
PCI-XベースのInfiniBandとPCI ExpressベースのInfiniBand
を比較するため、2種類のPallasテストを実行した。1つは
Pallas Ping-Pongテストで、2ノード間のポイント・トゥ・ポイント
接続を対象にバンド幅とレイテンシを測定する。もう1つは
Pallas Send-Receiveテストで、2ノード間の双方向バンド幅
を測定する。図1と2は、これらの性能テストから得られたポイン
ト・トゥ・ポイント接続の測定結果だ。小さなメッセージのレイテン
シを測定した図1を見ると、PCI ExpressベースのInfiniBand
が約4.3マイクロ秒(μs)であるのに対し、PCI-Xベースの
InfiniBandは、5.32 μsとなっており、PCI Expressより遅れが
出ている。また、大きなメッセージをテストした図2を見ると、
『Dell Power Solutions 2006 年 11 月号』より抜粋 © 2005 デル株式会社 All rights reserved.
2005 年 11 月
DELL POWER SOLUTIONS
3
クラスタ特集号: ハイパフォーマンス・コンピューティング
このうち、ISベンチマークは、整数演算の処理速度と通信性
能の両方がテストできる。ISは、パーティクル法を使った流体力
学コードで用いられる並列プログラムである。ISベンチマークでは
浮動小数点演算を行わないが、代わりにデータ通信が大量に
発生する。PCI ExpressベースのInfiniBandでISプログラムを
実行したところ、PCI-Xと比べて、ほぼ12%の性能向上を果た
した。図4に示すとおり、他のベンチマーク・プログラムでも性能向
上を果たしているが、その向上幅は、扱う通信量によって異なる。
通信量の少ないアプリケーションであれば、PCI-Xベースの
5
InfiniBandカードや、さらに低速なGigabit Ethernet などのイ
ンターコネクトでも十分対応できる可能性が示された。
図2. Pallas Ping-Pongテストで測定されたバンド幅
MB/秒
NPB スイートを使った性能テスト
NPBスイートには、計算流体力学(CFD)コードに基づく8個の
プログラムが含まれる。これらのプログラムは、クラスタ全体の性
能を測定し、その結果をMOPS(1秒あたりの処理数を100万
単位で表した値)で示す。プログラムには様々なクラスがあり、ク
ラスによって扱う演算問題の大きさが異なる。デルが行ったテス
トでは、大規模な演算問題を扱う「クラスC」を選択した。図4
は、NPBスイートから提供される8プログラム中、6個を実行した
ときの結果だ。PCI ExpressベースのHCAで測定された性能
を、PCI-XベースのHCA(基準値)と比べ、性能の伸び率(%)
を示している。6つのNPBプログラムを具体的に挙げると、まず、
カーネル・プログラムからFT(高速フーリエ変換)、MG(マルチグ
リッド)、CG(共役勾配)、IS(整数ソート)の4つを選んだ。これ
らは、CFDアプリケーションの数値解析に使われる基本演算法
をエミュレーションするものだ。また、CFDシミュレーション・プログ
ラムからは、BT(ブロック三重対角)、SP(スカラ五重対角)の2
つを選んでいる。
メッセージサイズ(バイト)
メッセージサイズ(バイト)
図3. 2ノード間で測定したPallas Send-Receiveテスト結果
PCI-Xを基準とした
PCI Expressの性能向上率(%)
Pallas Send-Receiveベンチマークでは、最初にグループ内
のノードがそれぞれ右側のノードにメッセージを送り、左側のノー
ドからメッセージを受け取る。つまり、各ノードが扱う合計メッセー
ジ数は、計2個となる(1つ送信、1つ受信)。このベンチマークは、
MPIの基本操作を扱うMPI_SendRecvを基にしている。
Pallas Send-Receiveテストを2ノード間で実施すると、互いに
メッセージの送受信を同時実行するので、そのときのバンド幅を
測定することができるのだ。図3に示すとおり、PCI-Xベースの
InfiniBand HCAは、双方向の最大バンド幅が約813 MB/秒
にとどまっているが、PCI Expressの場合は最大バンド幅が約
1,763 MB/秒まで伸びている。これらのテスト結果から、PCI
ExpressベースのInfiniBandは、PCI Expressバスが提供す
る広いバンド幅を十分に活用し、アプリケーション性能を飛躍的
に伸ばせることがわかる。
MB/秒
PCI-XベースのInfiniBandは、最大バンド幅として約700 MB/
秒が測定されたが、PCI ExpressベースのInfiniBandでは、
915 MB/秒に到達している。
NAS Parallel Benchmark(NPB)
図4. NAS並列ベンチマーク結果: PCI-XベースのInfiniBand
HCAを基準とした、PCI Expressの性能向上率(%)
5 この表記は、実際に 1 Gbps で稼動することを保証するものではない。
高速伝送を実現するには、Gigabit Ethernet 対応のサーバとネットワ
ーク・インフラストラクチャに接続する必要がある。
4 www.dell.com/powersolutions
『Dell Power Solutions 2005 年 11 月号』より抜粋 © 2005 デル株式会社 All rights reserved.
2005 年 11 月
DELL POWER SOLUTIONS
クラスタ特集号: ハイパフォーマンス・コンピューティング
Dell HPCC の PCI Express とストレージ
両者の性能を比較するため、IOzoneと呼ばれるパブリック・
ドメイン・ベンチマーク・ユーティリティを使った。これは、ファイルシ
ステムI/Oの性能評
価に広く使われてい
るプログラムで、シー
広いデータポートから
ケンシャル/ランダム
多大な総合バンド幅が
な読み込み処理と
書き込み処理が発
得られ、拡張性も抜群の
生する。このテスト
では、8 GBのRAM
PCI Expressは、次世代の
を搭載したDell
PowerEdge 2850
エンタープライズ・サーバや
サーバを採用し、こ
ストレージ・システムが求める
れをPERC 4/DC
経由でDell
高性能にも対応可能だ。
PowerVault
220Sストレージ・シ
ステムに接続した。
®
OSはRed Hat Enterprise Linux AS 4を実行し、インテル
EM64T(Extended Memory 64 Technology)を有効にして
いる。
最初のテストでは、両方の外部チャネルとRAID 0で構成し
た14台すべてのドライブを使って、PCI-X PERC 4/DCとPCI
Express PERC 4 e/DCを直接比較した。12 GBのテスト・フ
ァイルを使ってサーバ上でIOzoneを実行したが、このサイズは搭
載メモリの1.5倍にあたるため、計8GBのメモリは、HPC環境の
ストレージ負荷をシミュレーションすることで飽和状態になる。こ
うして、PCI Express PERC 4 e/DCをPCI-X PERC 4/DC
と比べたところ、書き込み処理では平均150%を上回る性能
向上を果たすことができた。また、読み込み処理でも、100%を
超す性能向上を達成している(図5)。
2回目のテストも同じハードウェアを使ったが、RAID 0の代わ
りに7ドライブでRAID 5を構成している。これは、1ドライブが故
障しても稼動が続けられる冗長構成だ。再び12 GBのテスト・
ファイルを使ったところ、PCI Expressシステムは、PCI-X
PERC 4/DCアダプタに比べてはるかに高い性能を示しており、
書き込み性能では200%を、読み込み性能では50%を超す
向上率を達成した(図5)。
www.dell.com/powersolutions
書き込み
読み込み
スピードアップ
HPCCの構築には、通常、低コストなSCSI RAIDストレージを
使う。今回実施したSCSIアダプタのテストでは、PCI-X対応の
PERC 4/DC(PERC 4, Dual Channel)を、新世代のPCI
Express対応PERC 4 e/DC(PERC 4, Extended Dual
Channel)と比較した。両方のRAIDアダプタとも、外付のDell
PowerVaultTM 220Sストレージ・システムに接続し、この
PowerVault内には、73 GBのドライブ(10,000回転)を最大
数の14台搭載してRAID 0とRAID 5を構成している。PERC
4/DCとPERC 4 e/DCには、それぞれ128 MBの読み込み/書
き込みキャッシュが搭載されており、チャネルあたり14ドライブまで
対応可能なため、最大28ドライブをサポートする。両アダプタと
も、最大40個の論理ドライブを処理することができ、RAID 0、
RAID 1、RAID 5、RAID 10、RAID 50が構成可能だ。
図5. PCI-XとPCI Expressを比較したIOzoneベンチマーク結果:
RAID 0およびRAID 5構成時の読み込み/書き込み性能
HPCC における PCI Express の役割
PCI Expressテクノロジは、InfiniBandなどのインターコネクトに
備わる高性能を十分に引き出すことができる。高性能を存分
に活かす通信デバイスの開発が盛んなのも、PCI Expressが
推進力となっているからだ。InfiniBand市場では、メモリ不要の
PCI Express HCAに移行しつつあるのが業界の動向だ。また、
ストレージ分野では、SASテクノロジが次世代SCSIインタフェー
スの主流となりそうな勢いである。広いデータポートから多大な
総合バンド幅が得られ、拡張性も抜群のPCI Expressは、次
世代のエンタープライズ・サーバやストレージ・システムが求める
高性能にも対応可能だ。
Rinku Guptaは、デルのスケーラブル・システム・グループに所
属するシステム・エンジニア兼アドバイザ。現在、ミドルウェア・ラ
イブラリ、並列プロセッシング、パフォーマンスおよびインターコネク
ト・ベンチマークに携わる。インドのムンバイ大学でコンピュータ・
エンジニアリングの学士号を、また、オハイオ州立大学でコンピュ
ータ情報科学の修士号を取得。
Saeed Iqbal, Ph.D.は、デルのスケーラブル・システム・グルー
プに所属するシステム・エンジニア兼アドバイザ。現在、標準ベ
ースのクラスタを対象としたリソース・マネージャやジョブ・スケジュ
ーラの評価に携わる。また、クラスタのシステム設計や性能分析
にも従事している。パキスタンのラホール工科大学で電気工学
の学士号と、コンピュータ工学の修士号を取得。さらに、テキサ
ス大学オースチン校でコンピュータ工学の博士号を取得してい
る。
Andrew Bachler は、デルのスケーラブル・システム・グループ
に所属するシステム・エンジニア。電子工学の順学士を取得し
®
ており、UNIX とLinuxプラットフォームでは、12年の経験がある。
『Dell Power Solutions 2006 年 11 月号』より抜粋 © 2005 デル株式会社 All rights reserved.
2005 年 11 月
DELL POWER SOLUTIONS
5
Fly UP