パソコンから成長して、企業を支える存在になったPCサーバー(後編)

パソコンの転用から始まったPCサーバーは性能を進化させ、ミッションクリティカルな領域での利用を想定した高性能サーバーも登場しています。そして、将来はPCサーバーのアーキテクチャに大変革が起こりそうです。

[2017年 7月12日公開]

PCアーキテクチャを超えて、「メモリードリブンコンピューティング」へ

PCサーバーの歴史を振り返ると、Compaq Computerが世界初のPCサーバーを発売し、普及に力を尽くしてきたことが分かります。そのCompaq Computerは他企業を買収して、その技術をPCサーバー開発に生かしています。1997年には無停止サーバー「NonStop」シリーズを開発販売していたTandem Computersを買収しました。サーバー間インターコネクトとして普及している「InfiniBand」の源流には、同社の技術があります。

そして、翌1998年には「Alphaプロセッサー」などの技術を持つDEC(Digital Equipment Corporation)を買収します。そして、そのCompaq Computer自体を2002年に買収したのがHewlett-Packardです。

日本ヒューレット・パッカード データセンター・ハイブリッドクラウド事業統括 DCHC製品統括本部 エバンジェリストの山中伸吾氏(写真1)は、DECの技術についてこう話します。「DECにはAlphaプロセッサーを中心とする『Alphaアーキテクチャ』がありました。信号回り、チップセット周辺のデザインが優れていたのです。その技術は今でもHewlett-Packard製品のバスやインターフェイスに生かされているんですよ」

(写真1)日本ヒューレット・パッカード データセンター・ハイブリッドクラウド事業統括 DCHC製品統括本部 エバンジェリストの山中伸吾氏 *内容は取材当時のもの(写真:加山恵美)

ところで、サーバーで性能を向上させる手法にはスケールアップとスケールアウトがあります。前者は単体のサーバーの性能をどんどん高めていく手法、後者はサーバーの台数を増やして、分散処理で全体の性能を高める手法です。スケールアウトでは、1Uサイズのラックマウントサーバーなど、小規模のサーバーを大量に使う場合が多くあります。

一方、スケールアップで性能を高めていった高性能なサーバーにもPCサーバーの系統が出てきています。例えばHewlett-Packardは、ミッションクリティカルな用途に向けた高性能サーバー製品群「Superdomeシリーズ」を持っています。かつてはHewlett-Packardが独自開発した「PA-RISCプロセッサー」や、Hewlett-PackardとIntelの共同開発で生まれた「Itaniumプロセッサー」を採用したものしかありませんでした。どちらのプロセッサーも、設計の段階からミッションクリティカルな用途で使用することを想定したものです。

そのSuperdomeシリーズにも、パソコンが搭載するx86(x64)プロセッサーを搭載したものが登場します。それが2014年発表の「Superdome X」です。パソコンの転用からスタートしたPCサーバーの系譜が、Superdomeのような高性能サーバーにまで到達したと考えると、感慨深いものがありますね。

では、これから先はどうなるのでしょうか。山中氏は「もうスケールアウトもスケールアップも垣根がなくなりますよ。インターコネクトが高速化すれば同じです」と言います。

現状のコンピューターはプロセッサーが中心となり、それにメモリーがつながる形になっています。多数のサーバーでクラスターを作ると、サーバー同士の通信速度がボトルネックになりますが、山中氏によると将来は光通信を利用した高速インターコネクトでプロセッサーとメモリー、そして隣り合うサーバーのプロセッサーをつなげるようになると言います。インターコネクトが光通信になると、消費電力も現在と比較して1/400ほどになるなど、省電力化にも大きく寄与すると期待されています。ただし、実現するにはプロセッサーが光インターコネクトに対応するなどの課題をクリアしていく必要があります。

さらに山中氏はサーバーのアーキテクチャが大きく変わると言います。「現在、記憶装置としてメモリーとハードディスクを併用するのは、電源を切るとメモリー上のデータが消えてしまうからです。電源を切ってもデータが消えない不揮発性メモリーを、現在のメモリーと同程度のアクセス速度で使えればどうなるでしょう? ハードディスクが不要になります」と将来像を語ります。

現在も、大量のメモリーを搭載して、大量のデータを全てメモリーに置いて「インメモリー処理」をするソフトウェアが存在します。好例がSAPのHANAです。そのインメモリー処理でも、ハードディスクあるいはNANDフラッシュなどの不揮発性メモリーを「2次記憶装置」として使います。電源が切れてもデータが消えないことを保証するためです。山中氏が語る将来像は、高速にアクセスできる不揮発性メモリーを利用したインメモリー処理とも呼べるものです。

さらに山中氏は、現在のプロセッサーにメモリーが付属するアーキテクチャから、「一つの大容量高速不揮発性メモリーに多数のプロセッサーが光インターコネクトでつながるアーキテクチャになっていく」という未来像を描いて見せてくれました。Hewlett-Packardは、このアーキテクチャを「メモリードリブンコンピューティング」と呼んでいます(写真2)。中央に位置する大容量高速不揮発性メモリーにつながるのはCPUとして利用しているプロセッサーだけではありません、信号処理を得意とするDSP(Digital Signal Processor)、3次元グラフィクス処理やディープラーニングを得意とするGPU(Graphics Processing Unit)、多様な機能を組み込んだSoC(System on Chip)など、さまざまなアーキテクチャのプロセッサーがつながり、高速にデータを処理していくようになるとのことです。

(写真2)メモリードリブンコンピューティングでは、大容量高速不揮発性メモリーが中心となり、そこに多様なプロセッサーがつながる(出典:日本ヒューレット・パッカード)

この構想を実現するには、現在メモリーとして利用しているDRAM(Dynamic Random Access Memory)と同程度の速度でアクセスできて、安価に大量生産できる不揮発性メモリーが必要です。Hewlett-Packardはその候補の一つとして「メモリスタ」と呼ぶ、全く新しい構造のメモリーについて研究しています。

光インターコネクトも、メモリードリブンコンピューティングも、メモリスタも2014年にHewlett-Packardが発表した「The Machine」と呼ぶ次世代コンピューティングアーキテクチャにつながる話です。現段階では構想を発表したところで、2020年までの商品化を目指して開発中です。果たして東京オリンピックが始まるまでに、サーバーアーキテクチャの大変革は起こるのでしょうか? 楽しみな話ですね。

執筆:加山恵美(フリーランスライター)
編集・文責:株式会社インプレス

いまどきのIT活用のおすすめ記事