HPC on SoftLayer とその可能性

 

皆さん、こんにちは。 エクストリーム・デザイン・ラボの柴田と申します。

2枚目と含めて大盛り上がりのSoftLayer アドベントですが、今日は How to setup 的なお話ではなく HPC on SoftLayer について語ってみたいと思います。

 

HPCです。 High Performance Computingです。簡単に言えば、「クラウド上にスパコンを作る」というソリューションです。 HPCなら SoftLayerが最適です。

なぜ最適なのでしょうか? それは、高性能な演算とIO,ネットワーク性能をスパコン並に維持できる下記のコンポーネントが揃う唯一のクラウドサービスだからです。

 

  •  最新CPUと大容量メモリの占有 (ベアメタルインスタンス)
  •  高速ネットワーク(1G,10Gbps)
  • InfiniBand (HPC向けインターコネクト)
  • GPGPU(nVIDIA K20等)
  • 高速なローカルI/Oデバイス (SSD, Fusion-IO等)
  • 並列共有ファイルシステム (Elastic Storage)
  • 高速かつセキュアなファイル転送 (Aspera)

 

これらを使って複数のインスタンスをネットワークで疎結合した「クラスタシステム」を構築できるのです。 下記のその主な構成要素を示します。

  1. ヘッドノード: ユーザーがログインし、ジョブスケジューラなどで計算ノードにジョブを投入やコンパイルなどの事前処理を行うノードです。基本的にユーザーはこのノードのみ対話式にアクセスをします。 ヘッドノードはCPUに大きな負担をかける計算は基本的に行わないので、コストメリットの高い仮想インスタンスを選択しても良いでしょう。
  2. 計算ノード:実際の計算資源としてアサインされユーザーの計算を行います。計算ノードは高性能かつ高スループットが必須となるため、高い性能を維持するためにベアメタルインスタンスを採用することをおすすめします。高速インターコネクトであるInfiniBandやGPU、SSD等のHPC向けデバイスを自由に構成できる利点を最大限に活用できます。
  3. ファイルサーバー: home領域としてはNASを採用しても問題ありません。ただし多数の計算ノードが同時にI/Oを行うアプリケーションを実行する場合は別途Elastic Storage等の並列ファイルシステムの採用も必要です。
  4. ネットワーク:内部LANは10Gbpsを採用しましょう。追加で管理用ネットワークを追加しても良いでしょう。 おおむね8台以上の計算ノードをベアメタルインスタンスを利用する場合はInfiniBandを構成し高スループットを確保することで並列計算性能の劣化を防止することができます。

デザインパターンはほぼ一択です。 そのイメージ図は下記の通りです。

SoftLayerでの構成ポイントについては既に IBMのHPCクラウドマイスター安田さんの投稿も参考にしてください!!

HPC-Cluster-Diagram

そしてなんと言ってもSoftLayer最大のメリットは「ベアメタルインスタンス」ですね!! 専有出来るサーバーは性能の揺らぎを誰よりも嫌うHPCユーザーに最適です!! ただベアメタルサーバーはオーダー時にDCによって別途サーチャージがかかるので注意が必要です。オーダー時に下記の様にDC毎に記載がなされていますので確認の上オーダーください!! 一律固定金額の場合と、サービス全体の%で表示されている物がありますのでご注意ください。 この辺はキット随時条件が変化していくのでは、、、と思います(と妄想^^)

 

図1-サーチャージ

 

このシステムにHPCクラスタシステムに必要な下記の要素をセットアップします。 これは FlexImage SoftLayer APIをつかってある程度自動化が可能です。

  •  OS
  •  開発環境
  •  並列計算用メッセージ通信ライブラリ
  • バッチジョブスケジューラ
  • HPC向け数値計算ライブラリ(オプション)
  • HPCスクリプト言語環境(オプション)
  • HPC用各種解析アプリケーション(オプション)

 

現在PaaS化を進めていますので完成したらまら披露したいと思います。 これらは Flex Image 化して利用者に公開すればOKです。 下記の様にポータルから容易に任意のSLアカウントに対してイメージを共有することができます。

 

図4 FlexImage管理と共有設定

 

そして肝心の性能はどうなのでしょう?? 個人的にベアメタルサーバーで取った 2ノード間のアプリケーションレベルのネットワークバンド幅性能を下記に示します。

これはHPCの世界で良く使われているネットワーク性能を測るベンチマークテストです。今回は10Gの環境を使いましたので理論的には1250MB/secは出るはずですね^^

さて、結果は。。

 

IMPI-pingpong-results

 

揺らがないし、性能もほぼ満足出来る結果です。 あくまで一例の性能ととらえてくださいね。これから東京DCができたら最新のCPUやインターコネクトなど

性能を測ってみます。性能向上の可能性を強く感じるSoftLayerを今後もWatchしていきます!!

 

HPCに関する情報は、このBlogでも 発信しますが、 Twitterアカウント (@naoki4277) でもつぶやきも含めて配信していますのでよろしければフォローください。

よろしくお願いします。

 

 

[/vc_column][/vc_row][/vc_column][/vc_row]
Comments are closed.