“グリーン・データセンター”を構築せよ――省エネを実現するために踏むべき7つのステップ

 読者諸氏が管理しておられるデータセンターは、どれくらい環境に優しいだろうか。今はそんなことは気にもしていないという方も、近い将来、きっとそのことを意識せずにはいられなくなるはずだ。電気料金の請求書を目にする機会がないために、ほとんどのデータセンター・マネジャーが気づいていないかもしれないが、現実に、データセンターの電力需要は右肩上がりで急上昇しており、それにつれて電気料金も増え続けているのだから……。

ロバート・ミッチェル
Computerworld 米国版

 サーバの薄型化、高密度化などに伴い、ラック当たりの消費電力は上昇を続け、一部のハイエンド・システムの中には、ラック当たりの消費電力が30キロワットを超えるものまで登場している。その結果、データセンター・マネジャーの中には、すべてのラックに十分な電力を供給することができず、途方に暮れている人もいるようだ。データセンター内に従来以上の電力を引き込もうにも、電力会社からそのロケーションへ配電される電力量をすでに上回っているため、そうすることが難しいのだ。

 リージョンズ・フィナンシャルのメインフレーム・テクノロジー担当上級副社長兼マネジャー、マロリー・フォーブス氏も、この問題を憂慮する1人だ。

 「毎年規格を改定するたびに所要電力が増加する。そのつど配電される電力量を増やしてもらわなければならず、それがデータセンターを管理するうえで大きな負担となっている」(同氏)

 この問題を解決するには、エネルギー効率を改善するしかない。データセンターの消費電力を1ワット節約すれば、少なくとも冷却に必要な電力を1ワット節約することができるわけだ。それを考慮するITマネジャーは少なくないが、なかでも長期的な視野を持つITマネジャーほど、エネルギー効率の高い機器を購入した場合の費用対効果(ROI)に注目しているようだ。

 例えば、バンガード・グループのテクニカル・オペレーション担当プリンシパル、ロバート・イェール氏は、「5年後のビジネス・ケースを策定するに際して、エネルギーの問題を重要な判断材料にした」と語る。

 バンガードでは、Webベースのトランザクションを処理するために、6万平方フィートにも及ぶデータセンターを保有しているが、そこでは、これまで「セキュリティ」と「アベイラビリティ」が最優先されてきた。ところが、最近は、「エネルギー問題をより重視するようになった」(同氏)というのである。

 いわゆる「グリーン・データセンター」の取り組みは、エネルギーを節約するだけでなく、データセンター全体を環境の観点から見直そうとするものだ。

 そうした環境に優しい最先端のデータセンターを構築・維持するための手引きとして、以下では、データセンター・マネジャーに向けた7つのステップを紹介することにしたい。

【ステップ1】
サーバを統合する(それ以外の機器もできるだけ統合する)

 数年前からデータセンター(グリーン・データセンター)に関する問題を研究してきたコンサルティング会社、アップタイム・インスティチュートの創立者、ケン・ブリル氏は、「データセンターの経費は、基本的な部分をいじるだけで、かなり節約できるものだ。そのコスト節約の第一歩としてお勧めなのが、サーバ統合だ。というのも、多くのデータセンターでは、サーバの10~30%が“遊んで”おり、(これらのサーバについては)電源を切ってもかまわない状況にあるからだ」と、サーバ統合の効能を説く。

 ある調査によれば、物理サーバの撤去によるコスト節約には即効性があり、1台のサーバにつき年間のエネルギー・コストを最高1,200ドル節約できるなど、節約額も決して小さくない──そう証言するのは、サンフランシスコの電力会社PG&Eで顧客エネルギー管理担当上級プログラム・マネジャーを務めるマーク・ブラムフィット氏だ。

 その数字の内訳を示しておくと、「サーバ1台当たりの消費電力を年間300~600ドル、冷却コストを同じく年間300~600ドル節約できる」(同氏)ということになる。ちなみに、PG&Eでは顧客に対し、サーバ統合プロジェクトによってサーバの稼働を停止させた場合、1台あたり150~300ドルの報奨金を支払うことを定めた「仮想化インセンティブ・プログラム」を提供しているという。

 “遊んでいる”サーバを撤去したら、データセンター・マネジャーは、サーバ・ベースのアプリケーションを可能な限り仮想マシンに移すようにするべきだ。そうすることで、IT部門は物理サーバの台数を削減できると同時に、残っているサーバの稼働率を大幅に高めることができる。

 今日、ほとんどの物理サーバの稼働率は、10~15%程度でしかない。一方、“遊んでいる”サーバであっても、最大でピーク利用時の30%の電力を消費することがある。つまり、「サーバ統合によって“遊んでいる”サーバを撤去し、仮想化によって残ったサーバの稼働率を上げることができれば、電気料金をかなり浮かすことができる」(VMwareの製品マーケティング担当上級ディレクター、ボゴミル・バルカンスキー氏)わけである。

 こうしたメリットをさらに追求すべく、VMwareは現在、同社の「Distributed Resource Scheduler」に新しい機能を付け加えようとしている。この機能を使えば、単一のリソース・プールとして扱われている物理サーバの間に、動的にワークロードを割り当てることができるという。

 より具体的に説明すると、「Distributed Power Management」と名づけられたこの新機能は、「仮想マシンをできるだけ少ない数の物理マシンによって構築し」(バルカンスキー氏)、仮想マシン構築後は、使われていないサーバの電源を自動的に切断する。仮想マシンの構成も、ワークロードの変化に応じて動的に調整される。例えば、就業時間外の夜間にはワークロードが統合され、朝になってアクティビティが増えると、より多くの物理マシンに再度割り当てられるといった具合だ。

【ステップ2】
電源管理機能をオンにする

 すでに市場には、電源管理を適切に行うための電源管理ツールが出回っているが、まだ多くの管理者がこれを利用するところまでには至っていない。

 「一般的なデータセンターの間では、電力の使用量はほとんど変わらないが、IT部門の負荷には3倍以上もの開きがある。これはつまり、ほとんどの管理者が、電源管理ツールを正しく導入していないということを意味する」と指摘するのは、エネルギーと持続可能性についての調査をビジネスにしているロッキー・マウンテン研究所(RMI)の所長兼チーフ・サイエンティスト、エイモリー・ロビンズ氏だ。

 同氏によれば、電源管理ツールの機能をフルに活用し、使われていないサーバの電源をオフにするだけで、データセンターのエネルギー消費量を約20%削減することができるという。

 だが、HPのエンジニア、クリスチャン・ベラディ氏によると、管理者はアップタイムとパフォーマンスを追跡するのに忙しく、一方のITスタッフ側はまだツールを使うのに慣れていないという事情から、電源管理ツールは広くデータセンターに普及するには至っていない。電源管理ツールを利用すれば、データセンターの電力および冷却システムに対する負担が軽減され、信頼性とアップタイムが高められるはずだ、というのにである。

 一方で、「ベンダーは電源管理機能を使いやすくするために、もっと工夫すべきだ」という声も聞かれる。先頭に立ってそう主張するのは、AMDのサーバ・チームで「Opteron」製品マネジャーを務めるブレント・カービー氏だ。

 同氏がそう主張するのは、すでにAMDをはじめとするチップ・メーカー各社が新しい電源管理機能を実装しているにもかかわらず、いまだに「MicrosoftのWindowsで一応ネイティブ・サポートされてはいるが、利用するには電源方式に手を加えなければならない」(カービー氏)という状況にあるからだ。

 「電源管理機能はもっと利用されるべきだ。そのためにも、この機能はデフォルトでオンにしておくべきだ」というのが、同氏の言わんとするところなのである。

 実際、最新のプロセッサに搭載されている電源管理機能を利用すれば、かなりのコスト削減を達成することができる。例えば、AMDの最新型プロセッサの場合、電源管理機能をオンにするだけで、「CPU利用率が50%のときには65%の節電が、CPU利用率が80%のときでさえ25%の節電が図れる」(カービー氏)というのである。

 「ただし、電源管理を行う場合には、“効果”より“副作用”のほうが多いこともあるので注意が必要だ」──そう警鐘を鳴らすのは、メッセージング・ロジスティクスのサービス・プロバイダー、デジターでCTO(最高技術責任者)を務めるジェイソン・ウィリアムズ氏だ。デジターでは、「UltraSparc」マルチコア・プロセッサを搭載する「Sun T2000」サーバでLinuxを走らせているが、そこでいくつか重大な“副作用”が見られたというのである。

 「当社では、たくさんのLinuxを使っているが、電源管理機能は、時としてOSに妙な動きをさせることがある。いちばん多いのは、カーネルがランダムにクラッシュしてしまうことだ。システムによって、ACPI(HPやIntel、Microsoftといったベンダーが共同開発した仕様「Advanced Configuration and Power Interface」)をオンにした状態でLinuxが正常に動作するものと、そうでないものとがあるのだ。どちらになるか事前に予測がつかないため、 ACPIだけオンにして他の電源管理はオフにするようにしている」(同氏)

【ステップ3】
エネルギー効率の高いサーバにアップグレードする

 Intelのサーバ・テクノロジー&イニシアチブ・マーケティング担当ディレクター、ロリ・ウィグル氏が、「Xeon 5100は、(従来のプロセッサに比べて)パフォーマンスを倍増させながら消費電力を40%も減らした」と胸を張るように、第1世代のマルチコア・チップでは、消費電力の劇的な低減が図られた。ということは、これらの設計に基づくサーバに移行すれば、エネルギー効率を高めることができるということだ。

 しかしながら、チップ・レベルで今後もこうした劇的なエネルギー効率の改善が見込めるかと言えば、それはかなり難しそうだ。Sun Microsystems、Intel、AMDの各プロセッサ・ベンダーは、サーバの消費電力は当面目立った変化を見せないだろうと口をそろえる。ウィグル氏自身、Intelの次世代製品でXeon 5100のときと同じような劇的な効率改善を実現できるとは考えてない。

 「45nm製造技術の製品(開発コード名:Nehalem、現行のXeon 5100/5300は65nm製造技術)への移行時には、消費電力の低減はもっと緩やかなものになるだろう」(同氏)

 一方、チップ・メーカー各社は、ここにきて、CPUチップにI/Oやメモリ・コントローラなどの機能も組み込むようになってきた。

 例えば、Sunの「Niagra II」は、1枚のチップに「PCI Express」(Peripheral Component Interconnect Express)ブリッジ、10GビットEthernet、浮動小数点演算などの機能を組み込んでいる。「1枚のチップ(の上)に真のサーバを構築した」(Sunのチーフ・アーキテクト、リック・ヘザリントン氏)のである。

 だが、こうした統合化が進んでも、必ずしもチップ・レベルでサーバの総消費電力が削減できるわけではない。

 IBMの「System x」プラットフォーム・グループに所属するあるエンジニアは、匿名を条件に、「統合化によって消費電力が減っても、PCIe Gen2、CSI、HT3、FB-DIMM、DDR3といった新しい高速のインターコネクト(が消費することになる電力)によって相殺されるため、チップ単位で見たときの消費電力は変わらない」と証言する。

【ステップ4】
効率の良い電源装置を使う

 サーバ分野で所有総コスト(TCO)を最も膨らませている元凶はと言えば、それは間違いなく電源装置であろう。スタンフォード大学の顧問教授でローレンス・バークレー国立研究所のスタッフ・サイエンティストでもあるジョン・クーミー氏は、「今日多くのサーバで採用されている非効率な電源装置は、データセンター内のいかなるコンポーネントよりも多くのエネルギーを消費している」と断言する。

 しかも、製品の改良は遅々として進まない。Intelのウィグル氏は、「電源装置の効率は年に0.5%ほどしか改善されていない」と嘆く。

 最近はかなり状況が改善されてきたが、それでも、製品価格自体がまだ高価なこともあって、特に低価格サーバ市場では(効率の良い)電源装置が広く普及しているとは言い難い。

 多くの低価格サーバに採用されている低効率の電源装置の場合、利用率100%のときに変換効率はピークの70~75%に達するが、利用率20%では65%以下にまで落ち、平均サーバ負荷は10~15%の範囲である。

 つまり、非効率な電源装置では、IT機器に電力が届く前にその半分近くが無駄になるわけだ。そのうえ、電源装置によって無駄になるエネルギーの分まで熱に変換される(電源の動作温度が上昇する)ため、データセンターの冷却システムの電力需要が高まるなど、問題はさらに悪化することになる。

 一方、20%の負荷でも80%以上の変換効率を達成する電源装置もすでに出荷されているが、こちらはかなり値が張る。電源装置ベンダー、コールドワットでマーケティング担当ディレクターを務めるラクシュミ・マンデャム氏にると、高効率の電源装置は一般のそれと比べて15~20%も高価だという。

 とはいえ、よりエネルギー効率の高い電源装置に移行すれば、運用コストと資本コストの削減が図れることは確かだ。RMIのロビンス氏は、「エネルギー効率の高い電源装置に20ドル支出すると、冷却およびインフラ機器の資本コストが100ドル節約される計算になる。この効果を考えても、低負荷時に80%の効率を達成できないような電源装置は使うべきではない」とアドバイスする。

 さらに悪いことに、Sunのヘザリントン氏によれば、サーバ・メーカーは所要電力を高く設定しすぎる傾向にあり、実際には300Wで済むサーバに倍の容量の電源装置を採用したりすることも珍しくないらしい。

 「サーバを設計するときは、システムに障害を招くおそれのあるピーク電圧になるべく近づけたくないものだ。そのため、電源装置の仕様をピーク時よりずっと高い値に設定したがる。それで、実際には300Wしか消費しなくても、650Wの電源装置をその半分の出力で酷使するといったことになる。これはきわめて非効率なやり方であり、膨大な電力の損失につながる。“エネルギーの無駄”という観点からすれば、まさに大罪と言っていい」(同氏)

 ここまで述べてきたような事態を改善するため、大手サーバ・ベンダーでは、すでにサーバ製品に効率の高い電源装置を採用している(あるいは段階的にそうすることを決めている)。

 例えば、HPは、サーバに搭載する電源装置の設計を標準化し、1種類に絞り込んでいるところだ。同社でストレージ/ネットワーク/インフラストラクチャ担当副社長を務めるポール・ペレス氏は、最近開かれたアップタイム・インスティチュートのコンファレンスで、「今年夏に出荷する電源装置では、効率が以前より大幅に高まっている」としたうえで、効率改善の比率を「1990年代中旬」のレベルにまで高めるつもりだと語った。また、同じHPのベラディ氏によると、同社のサーバはすべて、最低でも85%の効率が保証された電源装置を使っているという。

 電源管理を上手に行えば、電源装置の利用率を高めることもできる。例えば、HPの「PowerSaver」テクノロジーは、総負荷が下がるとCクラス・ブレード・サーバのエンクロージャに内蔵されている6個の電源装置のうちの一部をオフにし、省エネと効率アップを実現する。

 なお、読者が電源装置の効率を判断したい場合には、「80Plus.org」http://www.80plus.org/index.htmを参考にするとよいだろう。この認定プログラムは電力各社によって作られたもので、20%、50%、100%の負荷で一貫して80%の効率を達成することのできる電源装置が紹介されている。

 このステップを締めくくるに際して、効率的な電源装置に至る革新的な発想を1つ紹介しておこう。

 スタンフォード大学のクーミー氏によれば、Googleは同社のサーバ・ファームにおける電源装置の効率を改善するために、革新的なアプローチを採用したという。電源装置の設計にコストがかかるのは、異なる直流(DC)電圧での複数の出力が必要なためだが、同社はここに目をつけたのである。

 「Googleはカスタム・マザーボードを開発する過程で、電源装置の担当者に『こんなにたくさんのDC出力はいらない。12ボルトの出力があればそれで十分だ』と言ったという。同社は12ボルトの出力1本に絞ったことで、設計コストを節約し、より効率的な電源装置を手にすることができたのだ。いま必要とされているのは、まさにそうした発想なのだ」と、クーミー氏は訴える。

【ステップ5】
社内のビジネス・バリアを取り除く

 IT部門はこれまでパフォーマンスとアップタイムに関しては慎重に追跡し、深くかかわってきたが、エネルギー効率については責任を問われることがなかった。そちらに関しては、ファシリティ部門の管轄になっていたからだ。アップタイム・インスティチュートのブリル氏に言わせれば、「負荷を生成するのはIT部門、電気料金の請求書を受け取るのはファシリティ部門」だったわけである。

 電力問題を理解し、その問題を変革するための金銭的インセンティブを提供しようとするのであれば、まずはIT部門とファシリティ部門の間に横たわるバリアを取り除くことから始める必要がある。変革を進める──冷却システムを単純なルーム・レベルの空調からターゲット指向の冷却システムに移行したり、熱交換器をサーバ・ラックのそば、もしくはラックの中に移動させたりする──ときには、両部門間のコミュニケーションを円滑にしておくことが非常に大切なのである。

 そして、データセンターにおけるファシリティ部門とIT部門の境界線が曖昧になりつつあるときに、「(両部門の)オフィスの場所が遠かったり、きちんとコミュニケーションが取れていなかったりしたのでは、良いソリューションは生まれない」(ロッキー・マウンテンのロビンス氏)のだ。

 また、バリアが存在するのは、IT部門とファシリティ部門の間だけではない。IT部門内にも、バリアは存在する。というのも、今のエンジニアは分野ごとに専門化されており、その部品が使われるシステム全体(この場合はデータセンター)を考えることなく、自分が担当する部品だけを設計しているからだ。

 かつては総合的な設計プロセスによってシステム全体を最適化することでさまざまなメリットがもたらされていたが、今はばらばらに分割され、「1人の専門家が1つの部品だけを設計する、あるいは特定のメリットのために1つの部品だけを最適化する」(ロッキー・マウンテンのロビンス氏)という状況に置かれてしまっているのである。

 こうした状況も、今後は改善する必要があろう。

【ステップ6】
標準に従う

 現在、ユーザーが最もエネルギー効率の良いIT機器を探して買えるよう、いくつかのイニシアチブが進められている。なかでもよく知られているのが、電源装置向けの「80 Plus」プログラムと、サーバ向けに予定されている「Energy Star」認定プログラム(今年中に具体的な仕様が定まる予定)だ。

 また、スタンダード・パフォーマンス・エバリュエーション・コーポレーション(SPEC)は、エネルギー効率を比較するための基準として、サーバ向けに “ワット当たりのパフォーマンス”というベンチマークを開発中だ。この仕様も、今年中にリリースされる予定である。これが完成すれば、「複数のプラットフォーム間でエネルギー効率を比較するのに役立つ」(SPECの電力/性能委員会委員長、クラウス・ディーター・ランゲ氏)ことになるのは間違いない。

【ステップ7】
変化を促す

 IT機器ベンダーは、ユーザーからの要求がない限り、エネルギー効率を考慮して設計するようなことはしないだろう。そのため、リーマン・ブラザーズ・ホールディングスのように、ベンダーに対して、もっと効率的な設計にするよう働きかけることも必要だ。

 同社の上級副社長で、プラットフォームおよびデータセンター担当責任者でもあるジョセフ・ヘッジコック氏も、「電源装置、ひいてはシステム全体をより効率的にするようベンダーを説得している」と、意気込みを隠さない。

 一方、バンガード・グループでは、さらなる省エネ化を図るため、「グリーン・グリッド」などの業界団体への参加を果たした。

 「法人としてグリーン・グリッドのメンバーになっているだけでなく、私個人もさまざまな情報団体に参加している。というのも、この問題は業界全体で議論すべきテーマだと信じているからだ。だから、もちろんベンダーとも協力し合っている」(バンガードのイェール氏)

提供:Computerworld.jp