2010年04月28日

再び、ベクタ・プロセッサは必要か?

公開日時: 2008/05/05 18:40
著者: 能澤 徹

 4月にマイアミで行われたIPDPS-2008IEEE International Parallel & Distributed Processing Symposium)で、LBNL(ローレンス・バークレイ国立研究所)のS. WilliamsJ. CarterL. Oliker等によって発表された Lattice Boltzmann Simulation Optimization on Leading Multicore Platformsというレポートは大変興味深く注目に値する。

 これまでの「ベクタ機
vsスカラ機」の議論のベースになっていたのは、20042006OlikerCarter等の比較性能評価レポートであった。
 今回のレポートは“スカラ機での
LBMHD”だけに限定されたものではあるが、2004年、2006年のレポートと連結して考えると、大変興味深いものになっているからである。

 今回のレポートの要点は、以前のレポートでスカラ機が不得手とされていた“
LBMHD”というプラズマ磁気流体力学のベンチマークで,
・プログラムをスカラ・マルチコア用に最適化することで、実行性能が著しく改善したということ
・コア数に対するリニアリティが確認でき、単純コアによるマルチコア、メニーコアの将来性が示されたこと
・最適化は、Cellの場合を除いて、自動生成プログラムで行われたこと
等である。

 使用したシステムはどれも
1ボードで、Itanium2Clovertown(Intel Core2-4コア)Opteron-2コア、Sun-Niagara28コア)、PS3 Cell(8SPE)のシステムで、規模的には若干小さいとは思うが、実行効率的にはCellNiagara22006年レポートでのベクタ機SX-8を上回るような好成績を示し、Opteron-2コアも2006年レポートの2倍ほどの成績を示した。

 絶対性能的には
Cellがダントツの性能を示した反面、Intel4コアClovertownFSBが足を引っ張ったのか、今一であった。(IntelCPUに関してはNehalem以後のQPIで解決されるものと思える)


 今回のレポートは既に“
ars technica”や“HPCwire”で取り上げられているのでご覧になった方も多いかと思うが、CellNiagara2といった個別のCPUの性能もさることながら、筆者はこのレポートが日本のスパコン業界に投げかける影響は、かなり大きなものであるように思っているのである。

 つまり、このレポートをベースに考えると、従来から国内で行われてきた「ベクタ機か非ベクタ機か」といった性能差異の議論は、「アーキテクチャによる差異」というより「プログラミングによる差異」に帰着することになるからで、日本のスパコン業界にとっては甚だ重大なレポートであろうかと思うのである。

 マクロ視点では、既に昨年指摘したように、
RISC思想の一つである「1命令1サイクル」の敷衍以降、ベクタ機とスカラ機(スーパースカラを含む)の理論性能算定上の差異はなくなり、構造的な違いとしては、シーモア・クレイが考案したベクタ機の「巨大なレジスタ・ファイル」と、C. コンティとD. ギブソンがS/360-モデル85用に考案した「キャッシュ・メモリ」の違いが挙げられる程度なのである。

 言い換えると、「(大量の高速レジスタ)+通常メモリ」か、「(限定量の高速レジスタ+大量の高速キャッシュ)+通常メモリ」か、の違いということである。
 しかし、マクロ視点からは、()の中は一体と考えられるので、論理的には大きな違いはないということになり、それ程大きな実行性能の差異が生ずるとは考え難いのである。

 勿論この構造的差異がプログラミングに大きな影響を与えているわけではあるが、アーキテクチャに適したプログラミングをすれば、大きな性能の差異は発生しないと考えられるということなのである。

 要するに、スカラ機のプログラム最適化のキーポイントの一つは、「キャッシュを如何に効果的に作動させるのか」という事であり、プログラミングにおいてはこの点に注力を注ぐと、ベクタ機と大差ない性能が実現可能ということなのである。

 今回のレポートは、将に、このマクロ認識を裏付けてくれたわけで、「プログラムのスカラ機向け最適化」を考慮すると、「ベクタ機でなければならない」という積極的根拠はなくなったといってよいと思えるのである。

 これに加えて以前から筆者が指摘しているような、
HPCCでの性能比較データ、消費電力差、必要設置面積差、価格差、運営維持管理コスト差、等々を考慮すると、本当に「ベクタ・プロセッサは必要なのか」という事を改めて問い直さざるを得ないし、開発と、完成後の運用維持管理および下方展開に、巨額な税金を必要とする文科省の次世代スパコン・プロジェクトは、基本的にピントがズレた“おかしな計画”なのではないか、と主張せざるを得ないのである。

 勿論、民間会社が独自のマーケティング戦略で自らのリスクとしてベクタ機の開発を行う事には何の異議も無いが、国家が巨額の税金を投入してまで開発を行わねばならないものなのかという点は、甚だ疑問であり、税金の無駄使いといわれてもやむを得ないのではないかと思っている。

 


 
 なお、筆者の誤解、思い違い、転記ミス、計算違い、あるいは不適切な表現等がございましたら、ぜひ、コメント欄にてご指摘いただけますと幸いです。


 

 

 

 

  
Posted by petaflops at 18:36Comments(0)TrackBack(0) スパコン 02 

雲を掴め 富士通・IBM秘密交渉(2/2) <参考:S/360関連メモ>

公開日時: 2008/04/05 11:30 (富士通・IBM秘密交渉 続き)
著者: 能澤 徹

<参考:S/360関連のメモ>

  アムダールは三人いるといわれているS/360のアーキテクトの一人でアーキテクチャMgrであった。他の二人はアムダールの直属の上司(多分*)でシステムMgrであったF. ブルックスとブルックスのスタッフ(多分)であったG. ブラアウである。三人のほかにハードウエアMgrであったE. ブロッホを上げる人もいる。
 ブルックス、ブラアウ、ブロッホの3人は本格的スーパーコンピュータであったIBM7030(Stretch)の開発グループの一員であり、S/360が7030から大きな影響を受けている所以である。

*アムダール自身は、インタヴューの中で、S/360プロジェクトのアーキテクトの仕事はしたが所属はリサーチ部門であったといった旨の発言をしており、プロジェクト組織上の属性と機能組織上の属性が異なる例のような気がする。


  アムダールはサウスダコタ州出身のウィスコンシン大のDrで、ブルックスやブラアウより少し早く1952年にIBMに入社し、IBM704の設計を行った。 この704は大変な名機で、スパコン関連の話題としては電子的なハードウエアとして最初に浮動小数点演算器を備えた機械で、704以降からFLOPSという言葉が使用されるようになったのである。また、ジョン・バッカス等による最初のFORTRANも704に合わせて作成されたものである。
 アムダールはStretchプロジェクトに対する不満(多分主導権争い)から1955年にIBMを退社してしまったので、Stretch開発には加わっていない。しかし、その後1960年にリサーチ部門に再入社し、S/360開発プロジェクトではブルックスの下でアーキテクチャMgrを務めている。
 その後、CDC6600対策のS/360モデル91や95の開発を担当し、先進コンピュータ研究所の所長になり、ASC-360という3機種からなるハイエンド・ファミリを提案したが、経営陣は1機種しか認めなかったため、研究所の閉鎖を申し出て1970年にIBMを退社し、アムダール社を設立することになる。

  一方、ブルックスはノースキャロライナ州出身でハーバード大のH.エイケン(ハーバード・マーク1の考案者)の下でDrを取得し、1956年にIBMに入社した人物である。
 Stretchプロジェクトに加わり、S/360開発ではシステムMgrであったが、開発の遅れたOS/360開発のためソフトウエアMgrも兼任した。
 開発完了前からノースキャロライナ大学の計算機学科立ち上げに助力し、完了後IBMを退社しノースキャロライナ大教授に就任している。ブルックスはOS/360開発の経験を元にした「人月の神話」という有名な本を書いている。

  ブラアウはオランダ国籍でハーバード大のエイケンの下に留学しDrを取得し、エイケンの下でマークⅢ、IVの開発に従事し、1955年にIBMに入社した人物で、Stretch開発、S/360開発とブルックスと同じ経歴をたどり、その後、母国に戻りトゥウェント工科大の教授になっている。


  S/360は、701、704、709、7090、7030(型番3桁は真空管、4桁はトランジスタ)といった技術計算向けの2進ワード・マシーン系と702、705、650、1400といった事務計算向けの10進キャラクタ・マシーン系を統一アーキテクチャにまとめたもので、モデル数も最終的には全部で17-18ぐらいあったと思う。    

 アーキテクチャに関しては、701はノイマンのIAS系のマシーンで、704以降は独自。702、650はUNIVACを手本にしたもの。
 650はパンチカードシステムの置換え機でドラムを主記憶にした中小型機で、数千台を販売したベストセラー機。
 1400はトランジスタを使った7090のプリンタ制御用マシーンであったが、廉価であったため650の後継として中小の事務処理で人気が高く、数万台を販売した超ベストセラー機。
 IBMの売り上げは初期には650系、その後は1400系が圧倒的で利益のほとんどはこれらの機種からのものといわれている。
 
 開発組織も別々であったが、S/360への統一のためタスキ掛け人事が行われ、技術的には7090-7030系が中心であったが事業全体としてのプロダクトMgrには1400系のボブ・エバンスが就任している。

  なお、筆者の誤解、思い違い、転記ミス、計算違い、あるいは不適切な表現等がございましたら、ぜひ、コメント欄にてご指摘いただけますと幸いです。



********************** このエントリーへのコメント **********************

3  能澤さん なるほど、勉強になりました。私が以前所属していた組織ではそういった事は歴史的な汚点として教育されていましたから、コンプ等問題としてあつかっていたと思いますが、事実は違うんですね。 納得です。  
いちのせかずま on 2008/04/12


2  To コメント#1 
 「興味深い」ということは嬉しいことなのですが、やや驚きです。若い世代の人達はメインフレームとは疎遠で、関心のないものと思っていました。
 筆者は82年の逮捕事件が発生した時、テキサス州のオースティンにいました。あるシンポジウムで筆者等が当時開発中の機械について発表を行うためで、バタバタしていたためか、逮捕に関する現地での報道についてはほとんど何も記憶に残っていません。
 さらに、その後のソフトの案件も秘密交渉でしたので、新聞や雑誌の推測記事を読んだ程度で、誰もが「聞かされて育った」様なものでしょう。
 この事件は本文中の(A)を除いて、(B)は両社間の私的な秘密の約束事ですし、(C)も(B)に基づくビジネス上の仲裁ですので、法律違反の白黒を争ったものではありません。
 つまり、何らかの法的決着を求めたものではないので、「コンプライアンス違反」というか、ヴァイオレーションないしはブリーチといったものが特定されたわけではありません。したがって「コンプライアンス違反そのもの」と断定するのはあまり適切とは考えていません。
 盗品移送事件以外は私的なものなので、公的には何も歴史には残せないようなものと思っています。 

 この事件をどのように後世に伝えてゆくのかは結構難しい問題で、その難しさの原因は、対象期間が、各国でソフトの知的財産権に関する法整備が行われつつあったゴタゴタしたトランジションの期間であったことで、各国での法的状況に差があった事です。
 加えて、知的財産権とは関係ない米国の独禁法が裏に絡んでいたわけで、単純明快には白黒を断定できない状況であったように思っています。
 法整備が進んだ後に起きたPCにおけるROM BIOSなどの紛争とは状況が違うと考えています。

 筆者が指摘したかったのは、当時我が国は、官民挙げて、ヤバゲなプラコン・ビジネスというものを行っていたという事で、この事件は、そのビジネス上の帰結として、起こるべくして起きた事件と考えている事です。後世には、こうした歴史を伝えることの方が重要なのではないかと思っています。
能澤 徹 on 2008/04/12


1 この話は聞かされて育ったので、すごく興味深いです。ワタシはどちらかというと、国内主要メーカーが徒党を組んだ後の結末を見たので、その始まりの火種がどういう事であったのかは詳しくなかったのですが、本記事を読んで、概ね理解しました。ただ、このIBM事件自体は、いわゆるコンプライアンス違反そのものですので、そういった面では現在にでもきちんと残っている話だと思います。
いちのせかずま on 2008/04/05
  
Posted by petaflops at 10:08Comments(0)TrackBack(0) 業界 

雲を掴め 富士通・IBM秘密交渉(1/2)

公開日時: 2008/04/05 11:30
著者: 能澤 徹

  昨年11月、作家の伊集院丈さんが、1982年のIBM産業スパイ事件に関連し、その後に起こっていた「ソフトウエア秘密交渉」を題材にした「雲を掴め」という小説を出版発表された。
 伊集院さんは、交渉の一方の当事者であった富士通の鳴戸道郎さんのペンネームだそうで、CNETブログでも村上敬亮さんがこの小説を取り上げている。 この事件に関しては当時の新聞・雑誌等のほかに書籍としては、作家の立石泰則さんの「覇者の誤算」や、事件の少し前まで日立のコンピュータ事業本部にいてその後筑波大教授を務めた高橋茂さんの「コンピュータ・クロニクル」などの中に記述があるので参照可能である。

 ただ、この事件は、歴史のフィルターを通してみると、既にコンピュータ業界の模様は激変してしまっており、史的意味を見出し難い事件になってしまっているように思う。
 つまり、この事件は、後世に語り継がれる技術的な大事件などといったものではなく、IBM互換のメインフレーム市場という金持ちクラブのコップの中での、利益の分配・取り合いといったビジネス紛争の度合いが高く、しかも、そのメインフレーム市場そのものがダウンサイジングの強烈な風圧で、情報産業の主役の座から転落してしまったので、現在では、あまり興味を引かない話題となってしまっているからである。

 事件の背景は、当時メインフレーム市場を制覇していたS/370のアーキテクチャが拡張され、新しい3081Kというコンピュータの発表があり、互換機メーカは一刻も早くその新しいアーキテクチャの詳細を入手する必要があったということである。

 事件そのものは以下の3つが組み合わさっている。
(A)IBMの3081Kに関する機密情報の盗品移送共謀事件(1982-1983 ) 日立、三菱
(B)IBMのシステム・ソフトに対する知的財産権侵害賠償秘密協定(1982-1983/1984)日立、富士通
(C)米国国際商事仲裁協会(AAA)による仲裁裁定(1985-1987)富士通
 
 (A)は1982年6月に日立と三菱のエンジニアが、FBIの「おとり捜査」に引っかかり、米国で逮捕された事件で、刑事案件である。

 (B)は(A)に関連して行われたものであるが、S/370のシステム・ソフトウエアに遡った知的財産権侵害に関する損害賠償の民事案件で、示談として個別に極秘に行われた。83年7月に富士通、同年10月には日立が、IBMとの秘密協定を締結した。IBMと日立の間では問題なく協定のフォロー・アップが実施されたが、IBMと富士通の間では協定内容の解釈に相違が生じ、84年に(C)に発展した案件である。

 (C)は(B)での協定解釈の相違を解決するためIBMがAAAに仲裁を申請し、87年に仲裁命令が下った案件である。この命令内容は報道されており、概要は
(1)過去の賠償に関しては、富士通はIBMに総額8億3000万ドルを支払うこと、
(2)富士通は今後は免責を受け対価を支払い機密管理下の施設でIBMのソフトウエアを閲覧できる、
といったものであった。

  「雲を掴め」は(B)の富士通の部分を小説として記述したもので、当事者以外は何があったのか知るすべが無かった部分を、当事者のひとりとして参加していた鳴戸さんが、その経験を小説家伊集院丈の視点に変換してフィクションとして再構築したものである。当時の富士通の内部状況やIBMとの交渉場面が描かれ、大きな流れとしては事実に即しているといわれているが、細部は何処までが事実で、何処からがフィクションなのか判断は難しい。というのは、相手方であるIBMの当事者の記述が存在するのかどうかわからず、事実関係の突合せ確認が出来ないからである。

 平行して行われていた日立の状況は、以前から、前述の高橋さんの記述で大雑把な概要は知ることが出来ていた。
 日立と富士通が重なる(B)の部分に関しては、高橋さんの記述では『日立は民事ではソフトウエアの著作権めぐって徹底的に戦う構えでしたが、富士通が手を打ったのを知って和解し、ソフトウエアについては秘密協定ということになりました。(「コンピュータ・クロニクル」p123)』となっている。
 伊集院さん自身の記述でも旧通産には毎回報告をしていたと書いているので旧通産を介して日立の状況が判らなかったとは思えないし、また、ご自身も日立に「ご指導」に出向いた旨の記述もあり、キーになるポイントの情報交換は出来ていたと判断されるのに、(富士通が合意していないのに合意したとして)「日立を騙したのか!」(p110)と記述している辺りは、なんとなく全体状況と矛盾するような気がしないではない。もっとも日時の記述が無いため時系列関係が入り乱れているのかも知れないが。

  いずれにせよ、何処までが事実で、何処からがフィクションなのかは判断に窮するのであるが、そもそも小説として発表したという背景には、この秘密協定にはまだまだ「言うことを憚る」様々な事情が山のようにあるのだろうと推察した。


 今回「雲を掴め」を読んで、筆者が理解できたのは、(B)の秘密協定の本質は、どうも、知的財産権侵害の事実関係を争った法的交渉というより、その侵害の存在を前提としたビジネス上の「市場の棲み分けの話」にあったと思えることと、意外に感じたのは旧通産に関する記述が少なかったことである。

 旧通産省の電子政策は、60年代は「IBMに対する外資規制、製造規制、輸入規制、外為規制」で今日の中国の産業政策のお手本であり、技術の導入・移転は受けたいが、外資のシェアは50%以下でなければならないという市場制限の政策で、70年代は資本自由化、貿易自由化に対する国内体制確立のための業界再編で、多額の補助金行政を通し国産各社の箸の上げ下ろしに到るまでを行政指導の形で民事介入していたといわれている政策である。
 『秋山君、知ってのとおりIBM互換路線をとったとき、当然互換部分の情報は取り込んでいるに決まっているじゃないか。それを情報の使用と言うか、コピーと言うかは別として、情報を使っているくらいは政策を進めた当局は分かっているだろう。』(「雲を掴め」49ページ)と伊集院さんが書いているように、IBM互換路線は70年代の業界再編における国策であったわけである。

 業界再編当時、国産各社は米国企業と技術提携を結んでいた。
 日立はRCAで、RCAはS/360に対しS/360互換のスペクトラ70で対抗したが、次のS/370に対する互換機への切り替えに失敗し、日本の業界再編の70年代初期に電算部門をスペリー・ランド(ユニヴァック)に売却してしまった。このため、当時、日立は提携相手はいなくなってしまっていた。
 富士通はCDCとの提携話があったとされているが、最終的にはIBMからのスピンオフ・ベンチャのアムダール社に出資し、S/370互換のCPU作成の援助をすることになる。 NECはHIS(ハネウェル情報システム)で、HISはS/360の前のIBM1400という中小型機分野のベストセラの互換機で成功した会社である。
 東芝はGEで、GEはS/360に対しTSS(タイムシェアリング・システム)機能で対抗し、MITのMulticsシステムのための大型機GE645などを作ったが、性能が目標値に達せず使い物にならなかったといわれており、また欧州での買収事業の不調なども重なって、これも電算部門をHISに売却してしまった。
  結局、業界再編はIBM互換の富士通‐日立、HIS系のNEC‐東芝、独立系の三菱‐沖でまとまり、「当局」から全体でおよそ総額570億円といわれている補助金を受けることになる。

 最も注目されたのは、富士通‐日立グループで、アーキテクチャは同じであるが開発は別々であった。日立はRCAとの経験から独自に互換機開発の継続を行い、富士通は再編直前にアムダールの互換CPUを前提としてIBM互換路線を計画していたのである。
 つまり、マクロ視点で眺めて見ると、富士通のとった行動は、ある意味、国からの業界再編の補助金を社内経理というマネー・ローンダリング機構でシャッフルしたうえで、IBMの知的財産を頭の中にコピー済みの元IBM社員に投資することで、IBMの技術ノウハウでIBM互換機ビジネスを行うという計画であったと思えるのである。

  考えてみると、「雲を掴む」ために「国の補助金を使って、IBMの技術ノウハウで、IBM互換機ビジネスを行う」という方法論は、様々な面から検討しても、かなり完璧な方法で、この計画を立てた富士通の池田敏雄さんは、意識してなのか幸運だったのかは知らないが、結果として、類稀なビジネス戦略家であったことだけは確かである。
 当時まだIBMの社員であったジーン・アムダールに目をつけ、退社後のアムダールの「頭の中」に投資したのは大変目聡いビジネス戦略であり、リスクは極めて高かったが、技術ノウハウと同時に、互換機ビジネスでもっともヤバげな、知的財産権における法的プロテクションをも手に入れることが出来たからである。 ハード的に「アムダールの頭の中」という「クリンチ状態」はIBMの法律家をして、独禁法を除外しても、法的に論破することは難しかったのではないかと思う。

  結局、「雲を掴む」池田戦略は法的プロテクションの手薄であったシステム・ソフトから攻込まれてしまったわけで、この辺りが、ハード互換ビジネスを想定しながら、システム互換ビジネスに入り込んでしまった池田戦略の限界があったのではないかと思っている。
 互換機ビジネスという基本的にヤバイ・ビジネス遂行にあたっては、70年代から起こったソフトウェアに関するアンバンドル、有償化(商品化)、知的財産権による保護、といった一連の環境変化は、コピー対策、互換ソフト対策であったわけで、予見される紛争を未然に防ぐためには、早めの何らかの法的対策、あるいはビジネス・アクションが必要であったと思うのである。勿論これは後知恵であって酷な話しであるのかも知れないが、基本的に互換機ビジネスというヤバイ・ビジネスにおいては、状況の変化に対しても細心の注意が必要であったということであろう。

 この事件は池田戦略の総決算であったわけであるが、外部から見ていると、仲裁命令による支払いを含めても、池田戦略の総バランスシートは十分黒であったと思えるし、当時としては有効な戦略であったと思う。
 逆に割を食ったのは、こつこつと互換路線を走っていたがために、ついあせって、オトリ捜査に引っかかってしまった日立であったような気がするのである。


(2/2 に続く)   

  
Posted by petaflops at 10:06Comments(0)TrackBack(0) 業界 

次世代スーパーコンピュータは国家機密 ? (2/2)

公開日時: 2008/03/28 10:40
著者: 能澤 徹

 
 

<
次世代スパコンは国家機密なのか?>

 

 一部の方は先刻ご承知のことと思うが、実は、文科省の次世代スパコン・プロジェクトは昨年(2007年)312日に「秘密」に指定されているのである。
 前述のとおり、次世代スパコンは20063月のCSTPを経て閣議決定され、20076月に文科省の評価委員会が概念設計評価報告書」を公表し、CSTP評価専門調査会での検討を経て、9月の「総合科学技術会議(第69回)(持ち回り開催)」で「総合科学技術会議が実施する国家的に重要な研究開発の評価「最先端・高性能汎用スーパーコンピュータの開発利用について(案)」
として付帯条件付きで承認され、本格的開発が開始されたものである。

 この「概念設計評価報告」は、当時から、隔靴掻痒、内容のないものとして識者の間では不満の声が多かったものであり、また、
CSTPの評価専門調査会が発した多数の質問事項に対する回答も国民には公開されることが無かったのである。

 というのは、文科省は、同年3月には既に、次世代スパコン・プロジェクトを「秘密」に指定しておりはなから、開発費1154億円、運営費年80億円で6年総額480億円、下方展開のリース料金年額260億円で買取換算1000億円程度、の合計約2,600億円にも及ぶ税金支出の説明責任を果たす気は無かったからである。
 

 筆者は文科省の文書管理規定がどのようなもので、どのような秘密レベルがあって、次世代スパコンはその中のどのレベルの秘密なのか知らないが、具体的指定は以下のようになっている。
情報科学技術委員会 次世代スーパーコンピュータ概念設計評価作業部会(第1回)
A次世代スーパーコンピュータ概念設計評価作業部会における秘密情報の取扱い及び会議の公開・非公開について(案) 
B秘密情報の取り扱いについて(案)
 詳細は、上記リンク先を参照いただくとして、骨子は以下のようなものであろう。

     *===*===*===*
1 科学技術・学術審議会の委員、臨時委員、専門委員の守秘義務
 これに反し秘密を漏らした場合は、一年以下の懲役又は三万円以下の罰金刑が課される(国家公務員法第百九条)。

2
理研により提示される秘密情報
 理研は、次世代スーパーコンピュータのシステム構成案を検討するに当たり、日本電気株式会社・株式会社日立製作所によるグループ及び富士通株式会社に対し、システムの概念設計に関する業務委託を行っている。当該業務委託に関して理研とそれらの委託先企業との間に締結された契約では、当該業務に係る秘密を保持することとしている。
 本作業部会は、理研が概念設計の結果作成するシステム構成案の評価を行う際に、理研から秘密情報を含む技術情報の提示を求める見込みである。理研は、委託先企業との契約に基づき、本作業部会において秘密保持に必要な措置が講じられることを条件として、その求めに応じて必要な情報の提示を行うこととする。

3
我が国の国家的な目標と長期戦略を実現するための機密
 次世代スーパーコンピュータは、科学技術創造立国を国是とする我が国の基盤を支えるものとして、国家的な目標を掲げて取り組む「国家基幹技術」の位置づけにおいて開発するものである。このため、国家的な目標の実現に係る具体的な開発戦略や機密とされる技術情報が明らかとなることで我が国の科学技術の発展を損ね、ひいては国益に反することのないよう、情報については、我が国における科学技術の振興の観点から機密として扱う必要がある。
    *===*===*===*

 細かくいうと、企業側秘密には、本プロジェクト受注以前から保持していた固有の秘密と、受注作業過程で発生した秘密があり、前者は企業側に属することは明らかであるが、後者は特許申請を含めて企業側のみが勝手に指定できるのか、あるいは、発注側
(国側)が権利を留保しているのか、等々の論議は必要であろう。
 また、国の政策として技術情報を機密に指定し囲い込んでおいて、どの様にして我が国における公平な科学技術振興を推進することができるのか、という点に関しても大変興味がある。

 しかし、とにかく、次世代スパコン・プロジェクトには、受注側の秘密と、国家的目標や国家戦略上の機密
(国家機密)
があり、漏洩した者は国家公務員法で訴追される、ということなのである。
 公務員法の罰則は怖い話で、この平成のお触れ書以後、文科省やCSTPを含めて公務員の関係者は全員貝になってしまって現在に至っているのである。 

 ただし、受注側非公務員の機密漏洩に関してはどのような刑事罰規定が適用されるのかは不明であり、ザルのような気がしないではない。


<情報公開法>

 行政側の機密指定・情報秘匿に対し国民の権利を守る法律としては情報公開法がある。国民は行政に対し「知る権利」があり、この「知る権利」の観点から、次世代スパコンの機密指定で問題になるのは、特許等の詳細技術情報ではなく、国家機密とされる部分である。
 我が国には機密保持法の類は無い筈で、原則公開である。国家機密になり得るのは、情報公開法に例外事項として非公開の対象が定められているに過ぎない。その例外事項は、個人情報などのほかに、いわゆる外交、国防、公安などに関係した情報である。
 それらは常識的にも「国家機密」であろうと思える範囲のものであるが、これらには含まれない「原則公開の科学技術政策」のなかのスパコンの性能目標、開発費、運用経費、下方展開経費などといったものが国家機密などとは常識的に考えられないのである。

 つまり、情報公開法の観点からは、文科省が「科学技術の振興のため」として「機密指定」を行うことは法的に有効なのかということであり、「機密指定」そのものに多大な疑義があり、法的な議論が必要ということになるのである。

 これらの法的議論は次世代スパコンに関する本質的議論とは思えないが、これがバリアとなって、多額の税金支出に関する本質的議論が行えなくなっていのであるから、ぜひとも行政法の専門の方々の、機密指定承認のプロセスをも含めた、有効・無効のご意見を伺いたいし、文科省の根拠や主張も聞いてみたいと思っている。



<機密の理由?>

 この機密指定に関しては、一部に「次世代スパコンの情報が漏れると、米国に対応策を打たれて、政策数値目標である
20116月にTop500
で第1位奪還が難しくなる」といった話がある。

 これはおかしな議論で、そもそも、科学技術といった分野で、こうした他国との順位競争を政策目標として導入していること自体がおかしいのであって、その目標の妥当性・合理性・インプリケーションなどは公開で議論されるべきであり、また、検証されるべきなのである。

 国家政策は国民のために遂行するのであり、国民への説明責任を忌避し、国民が巨額政策予算執行の是非を判断するための必要情報すら秘匿しなければ、政策目標が達成できないないなどということ自体が、国民のための政策として、奇奇怪怪、本末転倒といわざるを得ないのである。

 科学技術の政策目標に他国との直接的順位競争を取り込んで「世界一になるためには情報を秘匿することが必要である」などといわざるを得ない羽目に陥ってしまっていることが馬鹿げているということである。

 本当に科学技術政策として
10Pflopsが必要であるのなら、政策数値目標としては「20116月までにLinpack実行10PflopsHPCC主要4項目の性能目標XXXを実現する」ということだけで十分なのである。
 勿論、その結果として世界一になることは喜ばしい事ではあるが、そのために、情報を秘匿し、国民に対する説明責任を忌避しなければならないというのなら、それは本末転倒だといっているのである。

 世界で
1番でなく2番であったとしても、本当に10Pflopsが日本の科学技術上の要請であるとするなら、科学技術政策上10Pflops達成だけで何の問題も無いことであり、国民に情報を開示し、オープンに、侃侃諤諤、議論したほうが遥かに政策としての意味があるであろう。



<転ばぬ先の杖>

 誤解を避けるため付言すると、筆者はスパコンの開発や設置に反対なわけではなく、むしろ、自分自身は促進派と考えているが、税金の使い方を問題にしている訳で、財政難の折、貴重な税金は本来の税金の価値どうりに有効に使用されるべきと考えているだけである。

 従って、筆者は民間企業の民間における企業活動を問題にしているわけではなく、あくまで、税金での開発や税金での調達での問題を提起しているわけで、税金による発注側、調達側の問題を指摘しているだけである。

 少なくとも、
1000億円、2000億円といった巨額な税金が、どこかの銀行のように、ドブに捨てられるような事態を起さないためには、納税者も厳しく税金の使途を監視することが必要であろうと思っているからである。





 なお、筆者の誤解、思い違い、転記ミス、計算違い、あるいは不適切な表現等がございましたら、ぜひ、コメント欄にてご指摘いただけますと幸いです。
  
Posted by petaflops at 09:51Comments(0)TrackBack(0) スパコン 02 

次世代スーパーコンピュータは国家機密 ? (1/2) <次世代スパコンの問題点>

公開日時: 2008/03/28 10:40
著者: 能澤 徹

 本ブログでは昨年7月から文科省の次世代スーパーコンピュータ・プロジェクトの問題点を指摘してきた。そしてこの間に日本のスパコンに関連する2つの大きなニュースがあった。一つは地球シミュレータの停止後継機選定のニュース、他は筑波大、東大、京大によるT2Kというオープン・スパコン仕様に基づく国際調達のニュースである。

 筆者は本ブログ開始時点から次世代スパコン設計に関連し、地球シミュレータの問題点を指摘してきたが、昨年11月の運用停止に関するNHKニュースの威力は絶大で、多くの人々がその問題点を認識されたことと思う。
 同時に
筆者が声を大にして指摘してきたのが内外価格差の問題で、この問題もT2Kの落札公示により、現実の問題として認識されるに到っていると思う。

 
 一方、昨年末から今年初にかけ、次世代スパコンの成否を占う国産の新型機が発表された。NECSX-9富士通のFX1SPARC64-VIIである。どちらもラック単位の性能や消費電力においてT2K仕様のオープン・スパコンに劣っていることが判明した。次世代スパコンの目標を達成するためには、どちらも、現在の8倍程度の性能向上では達成は難しく、16-32倍程度の向上が必要と推定される。
 価格的にも
SX-9は、スパコンのパソコン化の流れの中で、メインフレームのトレンド上にあるのではないかと思うほど高額であり、FX1SX-9ほどではないにしろ、T2K仕様の国際調達に比べ2-3倍であることも判明した。

 
 昨今の米国でのスパコン動向を眺めていると、低価格で量販を志向した「スパコンのパソコン化」が急速に進んでいるように思え、この「スパコンのパソコン化」に対応出来ない企業は完璧にマーケットから振るい落とされてしまうであろうことも見えてきたように思う。

 こうした新事実・状況が積み重なって行く中で、次世代スパコン・プロジェクトの規模は、開発費の
1154億に留まらず、運営費年80億で6年間で480億、全国の主要機関への下方展開1000億、の合計で約2,600億円程度と考えられ、この巨額税金の使途である「次世代スパコンがどうなるのか」ということに関しては、改めて再検討する必要があると思う。



<次世代スパコンの問題点>

 税金納税者から見た文科省の次世代スパコン・プロジェクトの今時点での最大の問題は、

①文科省が情報を非公開とし秘匿していることで、納税者に対する説明責任を忌避している点である。

 この問題は次世代スパコンの本質的問題ではないが、納税者が税金支出の是非を判断するための情報をすら隠蔽秘匿するという姑息な手段をとっているわけで、極めて問題と考えているのである。


 次世代スパコンの概要は2006年3月のCSTP(総合科学技術政策会議)で、ベクタ機0.5Pflops、スカラ機1.0Pflops、専用機20.0Pflopsとし、Linpack実行10Pflopsは専用機で達成するとしていたが、2007年9月のCSTPでは、システム構成が変更され、専用機が削除された案が報告され、当初計画には無かったベクタ機かスカラ機、あるいは「2つを合わせた単体イメージ」、のどれかでLinpack実行10Pflopsを達成しなければならなくなった点である。

 専用機の削除は、専用機やFPUアクセラレータなどではLinpack以外の数値目標のHPCC主要4項目のうち、FFT(高速フーリエ変換)演算やSTREAM(データ移動)、メモリのランダム・アクセスに全く貢献できないことや、HPL(Linpack)に関しても性能目標達成に極めて疑問の多い代物であることなどから、妥当な決定であったことは確かであるが、削除後の案には、ベクター機が何Pflopsを目標とし、スカラ機が何Pflopsを目標とするか、という最重要な数値目標や変更後の消費電力や設置面積などが全く記述されていないという不可解な案となっており、目標達成に多大な疑義を惹起させるものなのである。

 つまり、次世代スパコン・システムの技術的な基本問題は、

② ベクタ機、スカラ機のそれぞれの性能目標の明確化と、その目標の達成可能性

という極めて初歩的な問題であり、最近発表されたSX-9やFX1といった国産機の性能から予測すると目標達成には多大な疑問が残るからである。

 そして2007年の変更後の情報は公開されていないため、2006年3月の公開資料を基に問題点を付け加えるなら、以下のような「システム完成後の取り扱い」の問題が浮かびあがってくるのである。

③    運営経費が毎年80億円と巨額なこと

④    下方展開と称して、全国15の主要機関に2011年以降に縮小版を設置するとしているのであるが、そのTflops単価は2500万円で、既に現在のT2Kスパコンの輸入単価より高くなっており、3-4年後を予測すると全く競争力のない価格想定になっていること

等である。
 要するに、文科省は①で情報を遮断することで、②③④といった問題点を封印したとしか思えないのである。


( 2/2 <次世代スパコンは国家機密か?>に続く)

  
Posted by petaflops at 09:50Comments(0)TrackBack(0) スパコン 02 

T2K(筑波、東大、京大)とJAXAのスパコン(2/2) <JAXA>

公開日時:2008/02/23 19:00  (続き) 
著者: 能澤 徹




JAXA、宇宙航空研究開発機構

富士通がJAXAから110億円でスパコン受注、性能は国内最高に相当
JAXA様の新スーパーコンピュータシステムを受注

JAXAが調達するスパコンは、富士通のFX1という機械で、理論性能135.7Tflops、6年リースで110億円となっている。

・CPUはSPARC64-VII 4コア。
・クロック2.5GHz。T2K-Opteronは2.3GHz。
・ソケット性能40Gflops。T2Kは36.8Gflops。
・1ノード1ソケット。T2Kは1ノード4ソケット
・メモリは32GB/ソケット。T2K最低仕様は32GB/4ソケット。
・ボードはT2Kと同じ4ソケット。
・シャーシは5U。T2Kは2UなのでT2Kの2.5倍。
・消費電力はシャーシ当り2.21KW。T2KのHX600は730WなのでT2Kの3倍
・1ラック8シャーシ、理論性能1.28Tflops。T2KはMax21シャーシ、3.09Tflops
・システム全体のDASDの総量は11PB。東大のT2Kの11倍。

 実行性能に関しては、FX1、T2Kのどちらもベンチマークデータが公表されていないので、不明。SPARC64-VIIがどの程度の性能を示すのかは興味深い。
現行機のPrimepower(SPARC64-V)はLinpackの実効性能が50%以下という機械。

 一方T2KではXtreamの米エネ省3研究所版がTop500の100位以内に29位、38位、61位にランクされており、Linpackの実行効率は82%を達成している。
 パッケージ的にはどちらも1シャーシ4ソケットであるが、FX1(SPARC64-VII)は5UのシャーシでT2Kの2Uの2.5倍の厚みである。消費電力もFX1はT2Kの約3倍で、その結果、ラック性能はクロックが若干高いにも関わらずT2Kの40%程度に留まっている。

 従って、現状では、FX1は消費電力、設置面積などの点でT2Kにかなり劣っているということになる。


 価格的にはJAXAのFX1は135Tflopsの6年リースで110億円である。同程度の性能の東大のT2Kは、140Tflopsで、5年9ヶ月のリースで90億円であるが、FX1は実装メモリ量が多く、またストーレッジもかなり大きいので、実質的価格は同等程度ではないかと思える。



<次世代スパコンとの関係>

 このFX1というスパコンは文科省の次世代スパコンの実態を知る手掛かりとして興味深い機械である。というのは、次世代スパコンはベクタ方式のSX後継機とスカラ方式のSPACR64後継機の混在と考えられており、次世代スパコンへの中間ステップが観察できるからである。

 SX系は昨年10月発表のSX-9で概略は見えた。1ラック1.6Tflops、512ラックで0.8Pflopsであるので、今後かなり無理して頑張って性能を8倍程度増強したとしても、512ラックで6.4Pflopsに過ぎず、10PFlopsを達成するには1,000ラック必要である。そもそも512ラックですら現在の地球シミュレータの1.6倍で、正気の沙汰とは思えない数であり、ましてや1,000ラックなどは論外である。

 一方、SPARC64系もやっと今回のFX1でその片鱗が見えたが、ラック性能は1.28TflopsとSX-9より低いので、結局、SX-9と同じストーリになってしまい、10Pflopsは無理というのが現在の判定であろう。FX1の場合、ラックサイズはSX-9より小さそうなので、その分、設置面積的にはSXより少しは楽かも知れないが、所詮は五十歩百歩で、10Pflops達成は困難であろう。

 というより、SPARC64系はOpteronやXeonの後継機を圧倒する性能を示すことが出来るのかということの方が重要である。やっと45nmを実現しても、Intelは32nmに移行している可能性もあり、「大差ない」ないしは「劣る」というのでは、わざわざ税金をかけてまで開発せずともT2KのようにOpteronやXeonの後継機を使えばよいわけで、何故、高額の税金をかけてSPARC64の後継機を開発しなければならないのかといった根本的疑問が解決されないのである。

 食料セキュリティになぞらえて、技術セキュリティの観点からスパコンのCPUの純国産化を唱える人達がいるが、それをいうのなら、スパコンのことなどより、パソコンや業務用サーバーのCPUがIntelやAMDで占拠されている状況をこそ大問題としなければならないはずである。パソコンや業務用サーバーのCPUが手に入るなら、T2Kのように、それでスパコンを作ればよいわけで、パソコンや業務用サーバのCPUを無視して技術セキュリティの議論を持ち出すなどは、本末転倒なのである。


 次世代スパコン・プロジェクトは本当に必要なのか?

 文科省はこの問いに対し、十分な説明責任を果たさねばならないのであるが、驚くことに、文科省は国民に説明責任を果たすことが出来ない仕組みを作ってしまっているのである。この点に関しては次回以降に検討してみたい。




 なお、筆者の誤解、思い違い、転記ミス、計算違い、あるいは不適切な表現等がございましたら、ぜひ、コメント欄にてご指摘いただけますと幸いです。

 

  
Posted by petaflops at 09:02Comments(0)TrackBack(0) スパコン 02 

T2K(筑波、東大、京大)とJAXAのスパコン(1/2) <T2K>

公開日時: 2008/02/23 19:00
著者: 能澤 徹

 昨年末から大型スパコンの調達ニュースが続いている。T2KJAXAである。

 T2K>
T2Kの共通仕様の骨子は、
1ノード16コア以上、メモリ32GB以上(4コア4ソケット)
・ノード内共有メモリ、転送40GB/s以上
・インターコネクト 5-8GB/s以上
 ということで、3大学ともOpteron4コア・4ソケットのボードである。

    Peak File 期間 リース 推定  Tflops   メーカ
   TF  TB 月  総額 買取額  単価
筑波 95   400 60  25.2億 21.4億  2246万 APPRO
東大 140 1000 69  87.4億 69.9億  4989 日立
京大 61   800 46  39.0億 33.9億  4827万 富士通     
  (
70.2

 

 従って、T2Kというオープン・スパコン仕様にそったスパコンのTflops単価は、単純化して言うと、米国が1000万で、輸入すると2000万になり、国産メーカがつくると5000万前後になるということが判明するのである。

 


<内外価格差>

 Top500での日本の存在感は「地に落ちた」と嘆く諸先輩が多い。これには様々な理由が考えられるが、最も直截的で最大の理由を挙げるとするなら、それは、内外の価格差なのである。

 米国が1000万円のところを5000万円とか2億円とか払っていれば、同じ額の税金をかけても、日本は米国の5分の1、10分の1、あるいは20分の1程度の計算能力しか調達できないことは自明であろう。つまり、これが「存在感」をなくす原因なのである。

 少なくとも国際的な科学技術の競争力を維持してゆくには、競争相手と同じ程度の道具は必要である。公共調達に経済原理を働かせ、国際常識に沿ったオープンかつ公平な調達を行えば、同じ予算で、確実に現在の数倍の計算能力が手に入るのである。

 米国での単価とはいわずとも、筑波の調達単価を東大に適用するだけで200Tflopsを越え、ドイツの世界第2位のBGPと同程度のスパコンが手に入るのである。勿論インドの後塵などを拝することもなくなるのである。


 実はこのことは日本のスパコン調達のいたるところで起きることなので、Top500の中で「存在感が増す」などといった単純皮相なランク付けの問題だけではなく、計算力を欲している我が国の科学技術者に、より多くの計算能力と機会を廉価に提供することであり、我が国の科学技術の足腰を鍛えるものなのである。

 したがって、今後のT2Kの課題は、今回のT2K調達が図らずも明らかにしてくれた「内外価格差の問題」であり、(1:2:5)の価格差をどの様にして何処まで解消できるかということが最大かつ焦眉の急の問題と考えられるのである。

 ところで、筆者は、T2Kの本当の目的が何であったのかはよく知らない。端から見ていると、何故、3大学が徒党を組んであの程度の共通仕様で調達をしなければならなかったのか不思議であった。しかし、改めて考えて見ると、国内の各種組織の内に散らばった、狂信的なベクタ教のマインド・コントロール下にある信者とか、偏狭な技術ナショナリスト、あるいは、それらを楯にして闇に隠れた技術利権屋もどき、などからの暗黙の圧力を振り払うには、「赤信号、皆で渡れば怖くない」式のT2Kの仕掛けが必要であったのではないかと思うようになっている。


 東工大のTSUBAMEに始まり、地球シミュレータのリプレース報道やT2K調達などを通し、徐々にマインドコントロールが解け、普通の国際常識が浸透して行くことは、慶賀に堪えない。


(2/2 に続く)

 

 

  
Posted by petaflops at 08:52Comments(0)TrackBack(0) スパコン 02 

Grape-DRの性能

公開日時: 2007/12/20 10:24

著者: 能澤


【追加:こちらもご参照ください。

GRAPE-DRはスパコンではないらしい!(2009/04/24)

GRAPE-DRの性能(その2 2008/07/18 】 


 
 これも旧聞に属するマイナな問題の一つであるが、SC07の発表の中にGrape-DRがあり、そのPaperUpされていたので、年内の忘れないうちに若干のコメントを加えてみたい。まあ次世代スパコンや地球シミュレータに比べればゴミではあるが、赤字財政の中で科学技術振興調整費として、15億円もの国税を支出しているのであるから、国民に対する「けじめ」は必要であろう。

 Paperの要点は以下のようなものである。

・科学技術計算には重力多体や分子動力学などLow Memory Bandwidthのアプリケーションがある。CFDFFT、などはこの範疇ではない。

Grape-DRは、この分野向けに、2チップ(FPGA+ASICチップ)構成で設計した。

ASICチップには512の単精度演算コアと共有メモリを集積し、このASICFPGAで制御する構造である。

・それらを1組載せたテスト用ボードを作った。(理論性能;単精度512Glops、倍精度256Gfloops)

・このテストボード上で、重力多体問題のエルミート積分法によるプログラムを作って測定を行い、N=1024で、およそ50Gflops、を達成した。

 まあ、NETSはこんなものである。
 この重力多体の50Gflopsが単精度なのか倍精度なのかの記述はないが、AppendixSample codeC言語の部分がdoubleになっているので倍精度と考えることにしよう。するとこの実行性能比は 50/256で、
19.5% となる。

 Grape-DRは重力多体専用機GRAPEの拡張と考えられ、重力多体問題はGrape-DRに最も適したアプリケーションと考えられる。GRAPE-6のシステムは理論性能64Tflopsで実行性能33.4Tflopsとなっているので実行性能比52.2%である。従って、Grape-DR19.5%という効率はGRAPE-6の半分にも満たない効率ということである。

 Paperの中には、「Performanceの表」が示されているが、実測値はこの重力多体での50Gflopsだけである。これ以外の数値は全て予測値で、Grape-DRチップとホストの間のコミュニケーション・オーヴァーヘッドを無視した場合に得られると主張する予測値である。しかし、それらの具体的な算定根拠は示されておらず、単に希望的数値を並べただけとしかいいようがなく、表を埋めるための「枯れ木も山の賑わい」的な数値としか思えないものである。 特に、予測値だけで実測をしていないアプリケーションに関しては、予測値を算定するためにコードを書いたのであれば、すぐにでも実測し、実測値を掲載すべきであり、予測値だけを載せるなどということは、印象操作もはなはだしく、全く論外である。チップ完成の大々的発表からすでに1年も経過していることを考えれば、尚更である。

 これらはチップの性能に関してであるが、システムとして組上げた場合は、さらにシステムとしてのオヴァーヘッドがのしかかってくるため、実行性能はさらに低下せざるを得ないことは自明であろう。

  さて次に、このPaper全体を直裁に忌憚なく評価させてもらうと、このPaperは、そもそもの主張・論旨を支えるべき数値が欠落した典型的駄目Paperといわざるを得ない。学術Paperの基本的論理構成は、皆様ご承知の通り、Paperが主張する、なにがしかの仮設/設計とその位置付けを述べ、そして、その仮設/設計の有効性を確認するため、モデルの作成、実測試験を行い、なにがしかの実測データを得て、その結果を検証し、実測データにより、仮設/設計の正当性を確認・主張するというものである。

 ところが、このPaperでは、得られた50Gflops、実行性能比19.5%という実測データでは、設計の有効性を支持するどころか、反対に、設計に疑問を投げかけるようなデータで、「設計そのものが可笑しいのではないか」ということになってしまう構図なのである。従って、いくら連綿と設計思想の正当性を書き連ねても、実測的に「有効でない設計」では、その正当化そのものの信憑性すら問われてしまうことになっているのである。要するに、マイナス効果しか残らないPaperということである。 

 加えて、このPaperは、昨年のチップ完成の大々的な報道発表などを通してHPCに関心を持つ国民に、「Linpackが作動し」などといっていた件に関しても、触れていないのである。

 そもそも、このGrape-DRのようなアクセラレータを、Linpackが作動する「専用機の性能を持った汎用超並列機」などとして世界最高速を目指すなどといった宣伝をしていたことが羊頭狗肉なのである。Linpack本体はGrape-DRカードを接続するホストPC上で作動するわけで、Grape-DRLinpackの中で使用されるDGEMM(倍精度のMatrixどうしの乗算)用のサブルーティン演算器として使われるに過ぎないからである。

 これは、東工大のTSUBAMEにおけるClearSpeedFPUアクセラレータCSX600/620と同じで、本体として高性能なスパコンが必要であり、CSXはその本体のTSUBAMEの性能を増進させるといっただけのものなのである。TSUBAMECSXの例では、TSUBAME本体の38.2Tflops47.4Tflops-56.4Tflops程度に引き上げたのであるが、本体のTSUBAMEがあってのCSXなのである。


 従って、Grape-DRがあたかも汎用機であるかのように宣伝していたのは甚だ問題であり羊頭狗肉なのであり、しかも、Paperの中では、宣伝ラッパを吹きまくった優先度の高いLinpackに関する、DGEMMの実測性能を示すことが出来ないでいることは、プロジェクト管理上、甚だ問題なのである。

 いずれにせよ、チップを修正するにしろ、このままであるにしろ、FY2008年度中には公式な最終結果を出さねばならないわけで、15億円もの血税を費やしたプロジェクトの成果は大いに注目されるわけである。

 勿論、筆者はこのプロジェクトが民間の資金で行われているのであれば、取り立てて関心はない。国税から支出されているプロジェクトであり、次世代スパコンからのおこぼれを狙っているようなプロジェクトであるので、大いに関心を寄せるわけで、まあ、民間資金であれば、そもそも、このような稚拙なプロジェクトに出資する人はいないであろうから、関心を寄せる必要もないであろう。

 反論はWelcome。 大いに数値に基づく議論をすべきでしょう。

 なお、筆者の誤解、思い違い、転記ミス、計算違い、あるいは不適切な表現等がございましたら、ぜひ、コメント欄にてご指摘いただけますと幸いです。

参考

GRAPE-DRプロジェクト

世界最高速のコンピュータ開発プロジェクトがスタート

世界最高速のスーパーコンピュータ用プロセッサチップ開発に成功

分散共有型研究データ利用基盤の整備」実施計画

平成18年度科学技術振興調整費評価結果概要

 

  
Posted by petaflops at 08:27Comments(0)TrackBack(0) GRAPE-DR 

地球シミュレータと阪大のSX-9

公開日時: 2007/12/13 02:45

著者: 能澤

 

 前回、地球シミュレータのリプレースに関連し、ドイツのGerman Weather Service (DWD)の件や、阪大サイバー・メディア・センター(CMC)のスパコン調達の件に触れた。筆者は地球シミュレータのリプレースと阪大CMCの件は関係があると思っているからである。
 阪大CMCの件では、詳細情報を求めたが、現在までのところコメントはなかったので、とりあえず公開情報だけで考えてみる。

 阪大CMCの調達仕様は平成17年8月16日の資料提供招請に関する公表で示されており、キーポイントは以下である。

・導入予定時期 平成18年度1月以降
・調達に必要とされる基本的な要求要件
<現有スーパーコンピュータシステム NEC SX-/128M8 の16 倍以上の能力を有し、同システムと Fortran90 言語のソースコード・レベルで互換性を有すること> 

 CMC保有のSX-5の理論性能は1.28Tflopsであるので、この16倍という性能は「20.48Tflops」ということになる。


 そして、平成181011日の落札公示は

・スーパーコンピュータシステム 一式 借入
・日本電気株式会社
7,239,330,000円 (72.39億円)
となっており、報道発表等から知りうる内容は「SX-8R 20台、5.3Tflops」で、要求性能の「20.48Tflops」からは「15.16Tflops」不足しているのである。


 一方、納入側であるNECからの発表「大阪大学サイバーメディアセンターから大規模ベクトル型スーパーコンピュータを受注」では、さらに2年後に次機SXを導入し、20Tlopsに拡張する予定とある。つまり、2年後の製品を既に受注したと言っているのである。このNECが公表した2年後の拡張が、この時点での落札公示価格に含まれているのか否かは不明である。

 もし含まれているとするなら、(1)製品が完成し販売されるかどうか不明な2年先の機械を物品調達で調達可能なのか、(2)納入までの支払いはどうなっているのか、といったような様々な疑問が噴出するのである。


 こうした調達手続き上の疑問に加え、地球シミュレータのリプレースには、このCMCの調達価格が大きく影を落としているのではないかと思っているのである。


 というのは、CMCの落札価格の72.39億円にSX-9による拡張10ノード(16Tflops)分の価格が含まれ、全体で要求性能を少し超える21.3Tflopsになるとしても、Tflops単価は約3.4億円なのである。この単価はSX-9の最小リース価格から推定されるTflops単価と概ね同じ価格なのであり、CMC2006年に2008年納入の物品を、発表予定価格で購入したということである。



 その同じSX-92007年にドイツでTflops単価8千万円程度で契約しているようであるから、阪大CMCはドイツの4倍の単価で契約しているのである。


 そして、重要なのは、この阪大価格は阪大以外の官公庁のSX-9の調達価格をも規定してしまっているということである。官公庁の入札で、同じ機械をA大学とB研究所では大幅に異なる価格で入札するなどということは整合性の観点から極めて問題である。

 つまり、地球シミュレータのリプレースにおいて、整合性の観点から、SX-9の価格を阪大価格から大きく変更することは出来なくなってしまっているのではないかと思うのである。

 従って、阪大価格がある限り、海洋研の年額45億円/月額3.75億円の予算では、NECは正規価格では50-60Tflops程度であり、かなり勉強しても80Tflops程度が整合性の限界なのではなかろうか。

 この阪大価格はSX-9を導入した(する)官公庁は影響を受けているはずで、たとえば、前回例に出した、国立天文台も例外ではないであろう。しかし、この国立天文台のケースは、SX-9 Cray-XT4 との抱き合わせで、しかもNECがプライムであるため、それぞれの実際の価格は表に出ないため、SX-9が高いのか、XT4が高いのかわからないのである。SX-9を阪大価格で推定すると、XT4の価格は米国での実勢に近くなる。あるいはSX-9をドイツ価格で推定すると、XT4は米国での実勢からは程遠い価格と推定される。

 いずれにしろ、阪大CMCSX-9の先物買いが、地球シミュレータのパンドラの箱を開けてしまい、ドイツからのバックファイアもあり、地球シミュレータ・リプレースの連立方程式を解くのはLinpackでは無理であろう。

 納税者サイドからみれば、ドイツでの価格は極めて重要な情報で、国内でのこうした談合的調達は、近頃話題の水増し防衛装備品調達と違いはなく、税金の価値、円の価値を著しく毀損する行為なのである。支出をケチる意味ではなく、「もっと上手に買い物をしなさいよ」と言うことである。

 こうした観点から、地球シミュレータのパンドラの箱は、従来のベクタかスカラかといった議論ではなく、賢い調達、税金の有効支出といった問題を提起してくれており、筆者は海洋研の努力を高く評価したい。

 なお、筆者の誤解、思い違い、転記ミス、計算違い、あるいは不適切な表現等がございましたら、ぜひ、コメント欄にてご指摘いただけますと幸いです。



============================

                 事後追加
============================ 

 200712月公示の東北大のSX-926.2Tflops)の月額リース料は期間5年で10,248万円となっており、Tflops単価は月額リース料で391万円ということになります。したがって、SX-9Tflops当りの買取推定額は2億円前後と思えます。

 ご承知のように、一般的にリース料金には本体価格のほか金利、固定資産税、保険,手数料等々が含まれますので、リース料金総額は、本体価格より高くなっていると考えられます。したがって、本体価格を推定するには、その分を割り引く必要があります。
 また、公示される価格は、メモリやファイルサーバー、ログオン・サーバーなどシステムに必要なものをすべて含んだ価格ですので、ここでいうTflops単価はそれらを含んだ価格です。

 

===================
コメント欄の一部を本文欄に追加いたします。
=================== 

To:
コメント
#1
東北大の件、了解いたしました。

 日曜日(9日)に阪大や天文台の公示データを確認したのですが、その時点では東北大のデータはUPされておらず、その後、確認を怠ったため、失礼致しました。

 東北大のSX-926.2Tflops、月額リース料10248万円) Tflops単価は月額リース料で391万円ということになり、Tflops当りの買取推定は2億円前後と思えます。

 このデータを使うと、阪大のシステム(72億円)のうち、SX-910ノード・16Tflops)の部分は32億となり、SX-8R5.3Tflops)の部分は40億となりますので、200610月の契約時点でのSX-8RTflops単価は7.5億前後と推定されます。勿論、SX-9をもっと高く値付ればSX-8Rの価格は下がってきます。いずれにせよ、疑問の多い契約ですね。
 
 また、同様にこの東北大のデータを使用すると、国立天文台の月額リース料2,047万円の内、SX-92Tflops)充当分は782万円となり、XT426Tflops)充当分は1,265万円ということになりますので、XT4Tflops当たりの月額リース料金は48.7万円ということになります。
 従って、SX-9XT4Tflops当りの月額リース料を比べると、SX-9391 vs XT448.7万ということで、SX-9XT48倍ということになると思います。
 SX-9XT48倍の性能を示すことが出来るかどうかは大変興味深いものがあります。

 

  
Posted by petaflops at 08:07Comments(0)TrackBack(0) スパコン 02 

地球シミュレータのリプレース

公開日時:2007/12/10 09:00
著者: 能澤 徹

 旧聞に属するが、NHKの地球シミュレータ(ES)停止ニュースで話題になった地球シミュレータのリプレース問題。これの基本的構図は今年(2007年)3月に高度情報科学技術研究機構が主催してハワイで行われた「第9回最先端コンピュータにおける次世代気候モデル開発に関わる国際ワークショップ」での海洋研側のプレゼンテーションで、概ね明らかになっている。 
 このプレゼンテーションによると、リプレース問題に関する海洋研の基本的要求は2つである。

(1)現状の運用経費の範囲内で行う。
(2)実アプリケーケーション群に対する実行性能で2倍を確保する。 

  経費的には、NHKのデータでは、年額でおよそ、保守関係45億円、電気5億円、ガス水道1.5億円ということであるが、メーカーとしては、この原資だけでは、SX-8R、ないしは、SX-9で、210Tflopsのシステムを設置することは出来ないということであったようである。
 
 これに不満な海洋研は、このワークショップでのプレゼンテーションという形で、実行性能で2倍を得るためには、SXに限定せず、色々なアーキテクチャーのシステムを検討するという意思の表明を行ったのであろう。

 参考までに、直近の落札公示を拾い出すと、2007年11月12日に大学共同利用機関法人自然科学研究機構の天文シミュレーションシステム(いわゆる国立天文台のスパコン)の落札があり、NECがプライム・コントラクタとなり、「SX-9 2Tflops」と「CrayのXT4 26Tflops」を、月額20,475,000円で落札している。

 
 海洋研の原資である保守費年額45億/月額3.75億は、この参考価格の月額2千万円の18.75倍である。つまり、保守費だけで「37.5TflopsのSX-9」と「487.5TflopsのCray XT4」の両方を購入できる額なのである!  
 従って、海洋研の要求は「487.5TflopsのCray XT4」だけで十分であるが、参考落札をそのまま適用すれば、さらにオマケで、現在のESと殆ど同じ性能の37.5TflopsのSX-9が付いてくるのである。 勿論、初期コストの5億円など全く不要であり、電気代の減少で、保守費も捻出可能であろうから、この案は検討に値するものと思う。

 具体的には、ES(SX-6 5120基)の総理論性能は41Tflopsで、SX-6のCPU単体の理論性能は8Gflopsであるが、実行性能は実アプリケーション・Apps1を例に取ると、単体理論性能の34%に当たる2.74Gflopsという性能であった。

 海洋研はリプレースのため、SX-8Rを試験導入し、Apps1での性能測定を行った。SX-8Rの理論性能は35.2Gflopsで、SX-6の4.4倍の高性能が期待されたが、Apps1の実行結果は4.60Gflopsで、理論性能の13%であり、SX-6の1.68倍の性能でしかなかった。
 
海洋研は他のAppsでの測定も行い、結果として、海洋研の実アプリケーション・ベースでは、SX-8RはSX-6の1.6-1.7倍程度の実行性能と結論づけたのである。
 
従って、海洋研は、理論性能ベースで41TflopsのESを、単純にその2倍の80TflopsのSX-8Rシステムでリプレースしたのでは、実アプリケーション的には性能低下を来たしてしまうと主張しており、さらにその倍の150TF程度に引き上げても、実行性能的には現在の1.44倍程度にしか過ぎないとしており、結局、SX-8Rで、実アプリケーション・べースでESの2倍の性能を確保するには、計算上、理論性能で210Tflops程度のシステムが必要と判断しているようである。
 SX-9の実測性能データは、今のところ、公表されていないので、定かではないが、SX-8Rと同じ傾向を示すのではないかと思われる。

  このプレゼンテーションの「その後」が8ヶ月後の11月における、日経、NHK、朝日などのニュースということであろう。

  それぞれのシステムの価格は不明である。NECがプライムであるので、XT4もNECを通して価格が設定されており、Cray JapanがいくらでNECに卸し、また、米CrayがCray Japanにいくらで卸しているのかは不明である。 この落札額そのものに関しては、米国での実勢からの議論は必要ではあるが、とりあえず、国内での直近の参考価格として参照することにする。

  SXとTX4の実行効率の比較に関しては、共通のアプリケーションでのデータは乏しいが、上記3月のワークショップで、NECのプレゼンテーション・チャートのなかに、気象予報ソフトの「WRF」をSX-8で作動させた場合のデータがあり、実行効率が13.3%となっている。拙稿のHPCC賞のところで述べてあるように、「WRF」はCryaのXT3/XT4では11%程度で作動しているとのことであるので、SX-8の13.3%と比較すると、殆ど差はないことがわかる。

 
 ところで、昨年10月発表のSX-8Rの落札公示に関しては、阪大のケースがあるので以下に要点を記す。

・2006年10月11日 SX-8R 20台 理論性能5.3Tflops
・総額7,239,330,000円  Tflops単価13.66億円 理論性能と総額を見て、絶句である。
 
 どなたか、この件の詳しい情報や経緯をお知りの方がおられましたら解説をお願いいたします。

  そして、SX-9の価格に関しては、HPCwireに「NEC Revisit」という記事が載り、SC07でNECからHPCwireの記者に詳しい説明があり、ドイツでのSX-9の価格はBackup機を含めた2倍の台数のものであるとのことで、Tflops単価は1.0Mユーロから半分の0.5Mユーロへ訂正されている。約8千万円である。

  このことは、阪大のケースや海洋研のリプレースのケースに関連付けて考えてみると、新たな疑問を提起する。
 SX-9とSX-8Rは若干異なるスパコンではあるが、ラック当たりのコストではなく、Tflops単価において、2006年の阪大のSX-8Rの13億と、2007年のドイツでのSX-9の8千万とでは、あまりにも違いがありすぎるのではないだろうか。
 
加えて、Tflops単価8千万であれば、海洋研に、保守費の年額45億円だけで、210TflopsのSX-9の設置は可能と思えるのである。

  皆様、どう思いますか?






 なお、筆者の誤解、思い違い、転記ミス、計算違い、あるいは不適切な表現等がございましたら、ぜひ、コメント欄にてご指摘いただけますと幸いです。

  

 

  
Posted by petaflops at 08:03Comments(0)TrackBack(0) スパコン 02 

帝国海軍と霞ヶ関

公開日時: 2007/12/01 13:50
著者: 能澤 徹




 近頃、筆者のテーマ近辺でも「戦艦大和」の論議が華やかだそうで、「帝国海軍とiPod」という表題を見て、ついに論争はスパコンとは正反対のュビクィタス機iPodにまで拡大したのかと思ってしまった。
http://japan.cnet.com/blog/murakami/2007/11/27/entry_25002251/

 文春の戦記物対談は、皇室記事と同じで、何十年も前から、同じような対談を何回も掲載しているので、筆者にとっては、新鮮味のない漫談の類であった。コメントにも残っているアドミラル「ミニッツ」論議は、日本人によくある単純な読み違いで、瑣末なことではあるが、太平洋戦争を論じている中で「山本五十六」を「本山六十五」といってるようなものとのアナロジを効かすと、いささか問題ありとも感じられた。つまり、村上さんは太平洋戦争に関してそれ程詳しくないので、文春の対談内容を100%正しいと思っての引用ではないかと思うが、世の中には色々な考え方があり、対談内容を100%正しいとは思っていない人もあり、この対談だけから単純に教訓を引き出すのは如何なものか、と言うことである。

 さて、村上さんの論立ては
「僕の個人的なテーマは、日本のタテ割り産業をヨコにつなぐこと、です。情報産業で言えば、Walkmanを作った国が、何故、iPodに負けるのか」ということであり、アナロジとして、
「帝国海軍vs米国海軍、日本はなぜアメリカに勝てないのか」があって
「帝国海軍とiPod」となるのであろう。

 筆者は、この論立てはおかしいと思っている。理由は、
「日本のタテ割り産業をヨコにつなぐこと」というテーマを
「Walkmanを作った国が、何故、iPodに負けるのか」
と具体化した時点で、比較対象の概念に不一致を起こしてしまっているのである。つまり、「WalkmanがiPodに」でもなく、「SONYがAPPLEに」でもなく、「国がiPodに負ける」としているのである。 そして、この落差を認識しないことにより、彼の頭の中では何の不合理もなく「帝国海軍とiPod」の比較が成り立っているのではないかと思うのである。
 しかし、彼のレトリックを使うと、彼自身も気が付いているように「wii」を例に取ると、「PS2を作った国が、何故、wiiに負けるのか」ということになり意味を成さなくなってしまうし、米国から見れば「T型フォードを作った国が、何故、Toyotaに負けるのか」とか「コダック・フィルムを作った国が、何故、キャノンやカシオなどに負けるのか」ともなり、製品により「国」の立場が反転する例も多く、意味が無いことを論じようとしているのである。
 
 筆者は、「WalkmanとiPod」の製品企画、製造、販売インフラ、等々の議論は興味があるし、「SONYとAPPLE」に関する企業文化、組織運営、等々の比較も面白そうであり、また、「帝国海軍vs米国海軍(大西洋艦隊も含む)」や「日本国政府vs米国政府」などにも興味はある。
 しかし、残念ながら、「帝国海軍とiPod」は、何を主張したいのか良くわからなかった。そこで彼の最初のログを読んでみて、なんとか彼のテーマを理解できたので、以下に、彼のテーマに関して若干述べてみる。

 さて、村上さんの基本テーマである「日本のタテ割り産業をヨコにつなぐこと」は、国家を組織体として考えると、要するに、組織を「機能組織(Functional Organization)」にするのか「プロジェクト組織」にするのかということであり、「iPod」を引き合いに出したい気持ちは「価値連鎖(Value Chain)マネジメント」のことではないかと思う。
 機能組織とは、組織を固定的に、営業、企画、ハードウエア開発、ソフトウエア開発、保守サービス、財務・法務・管理、等々といった機能に分けて縦割りに活動を行う組織形態であり、プロジェクト型の組織とは、組織目標ごとに目標達成に必要な機能(要員)を集め、階層の少ないヨコに広がった組織で活動を行う形態で、目標達成とともに消滅する組織形態である。機能組織との大きな違いは、目標に対する意思決定の早さで、機能組織では、それぞれの組織長にまで駆け上がって決済を求めなければならないのを、プロジェクト組織ではプロジェクト組織内で意思決定ができる点である。
 一般的に、組織の管理運営で、機能組織がよいのか、プロジェクト組織がよいのか、という議論は、組織の置かれた環境や状況により異なるので、絶対的にどちらが良い悪いと言った議論は出来ない。いえることは、組織の運用にはこの2つの形態があり、組織の長は、組織の置かれた環境や状況を適切に判断し、どちらかに重心を移すことの出来る柔軟さがないと、組織の硬直化、形骸化が起こり、機能不全に陥ってしまうことが多い、と言うことぐらいであろう。

 従って、村上さんの「日本のタテ割り産業をヨコにつなぐこと」というテーマを言い換えると、「機能組織型に固定してしまっている感のある日本のタテ割り産業界に、企業の垣根を超える、決断の早いプロジェクト型のヨコ風を送り込みたい」と言うことと、「プロジェクト型の風」で「価値連鎖」の「顧客満足度(サービス)、マーケットシェア、収益、生産性」などを極大化する方向にもって行き、日本の産業界を活性化させたい、ということではないかと思う。
 しかし、組織論の如何に関わらず企業活動の本質的問題は、価値の源泉であるマーケット・ニーズが民族や国家・法律・文化、ライフスタイル、地理的環境、等々により多種多様に異なることで、これをどの様に取り込み、ロール・アウトするのかという古典的なことであるので、組織論は支援手段の一部でしかないということである。
 と同時に、企業活動の最終目標は、誰がどれだけ儲けるかということであるため、新しい「ヨコ風」も儲けの分配の壁をくぐりぬけるのは容易なことではないであろうと思っている。
 
 さて、話を戻すと、村上さんが他人事のようにピックアップした多くの部分は、実は、今日の霞ヶ関に最も強く受け継がれている悪弊のような気がしてしょうがないし、彼のテーマである「日本のタテ割り産業をヨコにつなぐこと」よりも、彼自身の属する「日本のタテ割り行政をヨコにつなぐこと」の方が緊急度も、重要度も高いのではないかと思っている。
 筆者のブログのテーマであるスパコン分野で考えても、経産省が国策産業政策として平成13年度から22年度の10年間にかけて半導体のMIRAIプロジェクトを推進しているにも関わらず、隣の文科省は、MIRAIの半導体成果とはプラン上のリンクを取ることなく、同じ国策の教育科学政策として平成18年から平成22年にかけて「次世代スパコンプロジェクト」を、「一部IT企業への失業対策的公共事業」などと揶揄されながら、強引に立ち上げ始めているのである。
 実に馬鹿げた話で、少なくとも国策と言うなら、「次世代スパコン」はMIRAIの成果にリンクし、平成22年を待って、一気に世界に存在感を示すべきで、「次世代スパコン」のプランである平成20年にTop1にならなければならない合理的理由など皆無なのである。そして「次世代スパコン」完成直後にはMIRAIの成果が出てきて、「次世代スパコン」は陳腐化し、1154億円の巨額税金が無駄金になるという、「すばらしい国策」を立てているのが「霞ヶ関」なのである。
 
 繰り返しになるが、問題は、「日本のタテ割り産業をヨコにつなぐこと」ではなく、「日本のタテ割り行政をヨコにつなぐこと」であり、この方が緊急度も、重要度も遥かに高いと思うのは筆者だけではあるまい。

  
 

 なお、筆者の誤解、思い違い、転記ミス、計算違い、あるいは不適切な表現等がございましたら、ぜひ、コメント欄にてご指摘いただけますと幸いです。
 





*************
このエントリーへのコメント
*************

1
実は件のエントリー、何を言いたいのかさっぱり解らなかったのですけど、能澤さんの話でようやく一部理解できました。ちなみに、縦割りの事情は日本だけではなくて、サイロ型やセクショナリズムの言葉どおり、海外企業や社会でも同じようなものだと感じています。

吉澤準特 on 2007/12/02

  
Posted by petaflops at 07:55Comments(0)TrackBack(0) 時々の話題 

2007年度のゴードン・ベル賞とHPCC賞

公開日時: 2007/11/21 08:30
著者: 能澤 徹



 SC07 の話題は「スパコンTOP500」のほか、「HPCC(HPCチャレンジ・ベンチマーク)賞」と「ゴードン・ベル賞」がある。
ゴードン・ベル賞はともかくとして、HPCC賞は、文科省の次世代スパコンの政策評価の数値目標である「2011年6月にTOP500の第1位と、HPCC賞の4項目で全て第1位になること」の対象であるので、Top500だけでなくHPCCについても注意を向ける必要があると思う。


<ゴードン・ベル賞>

 今年のゴードン・ベル賞はLLNL(リバモア研究所)のグループによる”Micron-Scale Atomistic Simulation of Kelvin-Helmholtz Instability”(KH不安定性のミクロン・スケールの原子シミュレーション)が受賞した。
http://sc07.supercomputing.org/html/SC07AwardWinners.html
 KH不安定性とは、海洋での強風時の海面とか、雲の境界面などといった、異なる流体の境界面で発生する不安定現象であり、今回受賞したのはその現象を20億個の原子を使ってシミュレーションを行ったものである。LLNLの360TflopsのBGLを使用し、54.4Tflops(実行性能比約15%)を達成したということである。

 ゴードン・ベル賞のファイナりストには上記KH-instabilityのほか3編が残っていた。
http://sc07.supercomputing.org/?pg=gordonbell.html
 その中の一つは、LLNLのBGLやワトソン研究所のBGW上での”WRF”(Weather Research and Forecast、気象の研究と予報)の稼動で、理論性能の7%程度の実行性能とProcessor数による線形なスケーラビリティを確認したというもの。WRFは限定された地域での天気予報に用いられているソフトウエアで米国ではPower5+とともに使用されている主流。
 ただし、BGLのCPU-PPC440は2FPU構成で4flops/Clockであるが、コンパイラのバグで、2flops/clockでの作動となってしまい、2flops/clockでの性能によると記されている。また、注には、ORNLのCray-XT3では”WRF"は11%程度の実行性能比で作動しているとも記されている。
 まあ、とにかく、受賞したKH-instabilityといい、WRFといい、米国では、流体・気象関係のスカラ化は急速に進んでおり、某国の一部で訳のわからない高額ベクタ機論を展開している人達は、ソフト面でも、急速に孤立化してしまう可能性は否定できない。

 他のファイナりストは、理研のMD-Grapeによる281Tflops達成と、地球シミュレータを使った第一原理計算で14.6Tfopsを達成したというものである。
 HPC業界では関心が汎用機での1Pflops達成に向いていて、BGL拡張版が478Tflopsを達成した今回のSC07においては、専用機で281Tflopsというのは、計算内容を無視すると、インパクトが少なかったような気がする。また、地球シミュレータによる第一原理計算は、ベクタ型スパコンが殆どない現状では、基本的に関心度が低いのはやむを得なかったのではないかと思う。


<HPCC賞>

HPCCは米国防省のDARPAの委嘱により、テネシー大が中心になってスパコンの持続性能を判断するために開発されたベンチマーク群である。それらは実際のスパコン・アプリケーションで頻繁に使用され、パーフォーマンスに大きな影響を与え、パーフォーマンス解析に必要と考えられるマクロ・サブルーティンである。その中の4項目にHPCC賞が設定され、毎年賞が与えられる。4項目は行列式計算のLinpack相当の「G-HPL」、メモリ・アクセスの「G-Randum-Access」、高速フーリエ変換の「G-FFT」、データ移動の「G-STREAM」である。
 Linpackは数値計算の基本であり、万遍なくメモリ・エリアを順番にアクセスするタイプの計算で、理論性能に近い性能が期待できる計算である。一方、G-FFTはメモリを飛び飛びに行ったり来たりアクセスするタイプの計算で、性能が発揮しにくい計算である。スパコンの全般的な性能は概ねLinpackとFFTの値を見ることで判断できると思う。
http://www.hpcchallenge.org/

2007年のHPCC賞の性能を以下に示す。


HPCC Awrad 2007

G-HPL Achieved System Affiliation
1   259Tflop/s  IBM BG/L LLNL
2   94Tflop/s  Cray XT3 SNL
3   67Tflop/s  IBM BG/L IBM T.J. Watson
(SX-8) 8Tflop/s  NEC SX-8 576CPU Shuttgart
 
G-Random Access Achieved System Affiliation
1   35.5GUPS  IBM BG/L LLNL
2   33.6GUPS  Cray XT3 SNL
3   17.3GUPS  IBM BG/L IBM T.J. Watson
(SX-8) 0.019GUPS NEC SX-8 576CPU Shuttgart
 
G-FFT Achieved System Affiliation
1   2870Gflop/s  Cray XT3 SNL
2   2311Gflop/s  IBM BG/L LLNL
3   1122 Gflop/s  Cray XT3 Dual ORNL
(SX-8) 161Gflop/s  NEC SX-8 576CPU Shuttgart
 
EP-STREAM-Triad (system) Achieved System Affiliation
1   160TB/s  IBM BG/L LLNL
2   77 TB/s  Cray XT3 SNL
3   55 TB/s  IBM Power 5 LLNL
(SX-8) 24 TB/s  NEC SX-8 576CPU Shuttgart


HPCC賞は申請ベースであり、多くの最新のシステムはTOP500のLINPACKに集中しているため、今までのところ、HPCCに最新機種のデータが登録されることは少なく、前年の機種のデータが遅れて登録されるような傾向である。

 今年も、第1位のLLNLの増強版BGLや、第2位のBGP、第3位のSGI-Xeon等々のデータはなかった。また、昨年、4項目とも第1位であったLLNLのBGLのグループからはアップデートは無かったようで、昨年のデータのままであるが、SNL(サンディア研究所)のXT3(Red Storm)からのアップデートがあり、FFTの第1位とG-HPL、G-Random-Access、G-Streamの3項目の第2位を獲得し、4項目とも今年登録分の第1位を獲得した。

 残念ながら「地球シミュレータ」はデータの登録をしておらず、SX系でデータを送っている中で1番大きなシステムはドイツのShuttgartのSX-8(576CPU)なので、参考のため、そのデータを表に入れておいた。
 SX-8のFFTの値を、HPLの値をベースに比例増加させ、地球シミュレータ(Linpack36Tflops)の値を予測すると、およそ725Gflopsであり、CPU交換で100Tflopsとしても2000Gflops程度で、SNLのXT3の2870Gflops、LLNLのBGLの2311Gflopsには到達できない。
 
 FFTは流体シミュレーションを含め多くのアプリケーションで総演算量を削減する解法として使用されており、FFTの性能が芳しくないのに、流体シミュレーションは速い、などということは無い。各アプリケーションにより、全体の中でのFFTの比重が異なるため、単純な比較は意味が無く、同一のアプリケーケーションで比較を行わなくては意味がない。
  
 地球シミュレータは最低でもHPCCの4項目のデータは登録しておく必要があると思っている。

 

 なお、筆者の誤解、思い違い、転記ミス、計算違い、あるいは不適切な表現等がございましたら、ぜひ、コメント欄にてご指摘いただけますと幸いです。
 


*************
このエントリーへのコメント
*************


2
To: コメント#1

 まず、読者の皆様にご理解いただきたいことは、ブログ本文の最初に書いてありますように、HPCCは国家プロジェクトである次世代スパコンの政策評価の数値目標の一つです。つまり大変重要な指標であるということです。
 さて、その重要な指標であるHPCCへの国産機のデータ登録は極めて貧弱です。地球シミュレータはデータを登録していません。登録されている国産機のデータの中で機種が比較的新しく、規模も大きく、信頼できるのはShuttgartのSX-8だけです。SX-7のデータもありますが、規模が小さすぎることと、データの一部に不可解な値があったりするので、採用しませんでした。
 
 ShuttgartのSX-8のデータがOptimizedでないという議論は、国際社会を知らない内弁慶な素人さんの泣き言としか聞こえません。世界中のHPC関係者が注目し、文科省の政策評価の数値目標にもなっている重要なHPCCのデータを、今の今までほっぽり出して、Optimizationの努力を怠っていたということが問題なのではないでしょうか。世界はこのデータで比較しますから、SXはOptimizationする必要がないのだと判断しているだけです。内向きな弁解に終始するより、性能が上がるなら、堂々と世界に向けて、すぐにでもOptimizedのデータを登録することをお勧めします。

(1)に関して
Baseではなく、Optimizedで比較すべきでしょう。Baseでは、Baseのアルゴリズムによる有利不利がありすぎるからです。

(2)に関して
 HPLのデータを見ると、ShuttgartのSX-8は正常と思えます。一方、上で若干述べたように東北大のSX-7のED-DGEMMの値には疑問がありますから、SX-7を正しいと考えるのか、ShuttgartのSX-8の方を正しいと考えるのかは、公平に判断する必要があるでしょう。
 お試しから,もう2年はたっているのではないでしょうかね。HPCCのResultは世界中が見ており、どれがお試しで、どれが本気なのかわかりませんね。お試しデータを使ってほしくないなら、早く、本気データでオーバーライドするしか方法は無いですよ。
 まあ、こんな詮索をしているより、性能が上がるのなら、しっかりした、Optimizedのデータを測定し、登録することをお勧めしますね。
 
 なお、誤解を避けるため付言しますと、ブログ本文は、なるべく一般的な内容で、と考えており、技術的な隘路に入り込むことがないよう、かなり単純化して述べておりますことを申し添えておきます。

能澤 徹 on 2007/11/24



1
あまり詳しくないようですので、いくつかツッコミとコメントを。

(1) 比較に出されているSX-8のシステムですがbaseでスコアが計測されています。optで計測しているRed Stormと比較するのはどうかと思います。(ほぼ同じRedStormの構成でもbaseでのG-FFTは1515GFLOPSとoptの60%程度の低い性能値となります)

(2) SXのシステムのスコア自体が異常に低いです(SX-7 32CPUのoptレギュレーションでで80GFLOPSくらい出てますのでbaseとはいえ、10倍以上の構成でスコアが2倍というのはちょっと…)SubmitされたスコアはHWの導入時にテストを兼ねてとったベンチマーク結果などで、baseで書き換えられるライブラリの最適化すらまともに行っていないなどと考えるべきなのではないでしょうか?
もちろん、SX-8のネットワークなどが手抜きで性能が出ないだけなのかもしれませんが…。

HPCCは歴史が浅いだけあって、お試しでとったベンチマーク結果ときちんとチューニングをして計測したベンチマーク結果が入り混じっているようです。掲載されているベンチマークスコアがその計算機の実力と考えるのは、ちょっと短絡的だと思います。

swy on 2007/11/23

  
Posted by petaflops at 07:47Comments(0)TrackBack(0) スパコン 02 

2010年04月27日

地球シミュレータ停止報道の余波

公開日時: 2007/11/18 09:30
著者: 能澤 徹



【地球シミュレータ停止報道の余波】


 最近、地球シミュレータの行く末に関する報道が相次いでいる。

1.日経BP【スクープ】地球シミュレータが08年度で停止、次期機は汎用製品で100テラを目指す  2007/11/01
http://itpro.nikkeibp.co.jp/article/NEWS/20071101/286127/
2.NHKニュース 2007/11/13
http://www.youtube.com/watch?v=rJwOGILoVFw
3.朝日「地球シミュレータ」部品交換で能力2倍に 海洋機構  2007年11月14日17時43分
http://www.asahi.com/science/update/1114/TKY200711140192.html

 時系列にニュースを見ると、まず、地球シミュレータ・センターは汎用スカラ系スパコンへの機種変更は可能と判断し、安価な機種への変更を示唆したところ、次に、納入業者は、あわてて、最大の顧客を失っては一大事とばかり、CPU入替案を持ち込んだ、と言うことのように思えるのである。

 要するに保守費45億の一部を、CPU入替のリース代金にまわすと、新しい機械が設置できるということで、いかに無駄な保守費を払い続けていたということを証明してくれたのである。

 保守費年間45億円ということは、毎月3億7500円分の、あるいは1年中休み無く毎日1,233万円分の、故障が発生すると言うことである。つまり、地球シミュレータは故障率が極めて高く、故障ばかりで殆どまじめに作動していなかったのではないかということか、あるいは作動していたのに全く実態のない保守費を払い続けていたのかの、どちらかである。そして今般わかったことは、後者であったと言うことであろう。

 本来、保守費は設置機械の故障率を元に計算すべきもので、故障率の低い機械を購入することが基本であるが、額に関しても前年の保守実績に基づき、見直しを行うといったような柔軟な保守契約にすべきなのであり、官公庁の契約は杜撰といわざるを得ない。



 一方、日立、富士通が2008年春にOpteron Quadを採用したスパコンを発売することが報道されている。
http://itpro.nikkeibp.co.jp/article/NEWS/20071116/287343/
 これは、筑波、東大、京大が発表していた共通の入札仕様の線に沿ったもので、地盤割り的には日立は東大、富士通は京大向けということであろう。
 こちらも、やっと国際常識に沿った、x86系高性能市販CPUによるスパコン化路線が始まったようであるが、問題は価格であり、調達価格が国際価格に追随しているかどうかが決め手である。
<参考:スパコンの内外価格差、性能格差>
http://japan.cnet.com/blog/petaflops/2007/10/09/1700_ed63/




 どちらのケースも、調達側が少しはコスト意識をもち、国際常識を意識したことで、民間の納入業者はそれに従わざるを得なかったということで、国税を浪費する、調達側=公務員、の意識改革が、極めて重要であることを示す好例ではないかと思う。

 いずれにせよ、HPCの環境は大きく変貌を遂げており、地球シミュレータ・センターが、これまで無批判にアプリオリとして代々浪費してきた年間50-60億円といわれている維持運営経費の「お金の現在価値」を再認識し、がんじがらめの体制の中で一石を投じたことは、高く評価したいし、エールを送りたい。

 黙っていると何も起きなかったところを、「ベクタ型には拘らない」として一石を投じたことで、これまで支払ってきた保守費総額からすると当然とはいえ、部品交換であるにしても、少なくとも2倍近くの演算能力を手にすることができるのであるから、前進といってよい。引き続き、イニシャルコストの5億と年間保守費の削減に向け、同センターのシニア・マネジメント層の奮起を期待したい。

 くどい様であるが、国際価格について付記すると、TOP500第3位のニューメキシコ州政府のSGI-Xeon 172Tflops機は、たったの$11M(約12.7億円)であり、NSFがテネシー大学にファンドし2009年設置予定のCrayの1Pflops(1000Tflops)機XT5(Opteron)は$65M(約74.8億円)に過ぎない。



<参考:Top500: 日本のスパコン能力>

http://japan.cnet.com/blog/petaflops/2007/11/14/entry_25001629/
 これらのスパコンの性能に関しては、CrayのXT3(Red storm)はTop500の第6位でLinpac実行性能102.2Tflops、実行性能比は80.2%であり、SC07でのHPCC awardのG-FFTで2.87Tflopsを達成し第1位になっている。このXT3のG-FFTの性能は極めて高く、ShuttgartのSX-8(576CPU)の0.16Tflopsを参考に現在の地球シミュレータのG-FFTの値を推定してみると、地球シミュレータの数倍は出ているものと思える。
 従って、同センターは、若干のプログラム修正を覚悟さえすれば、いつでも、スカラー型への切替えは可能である、という点を前面に打ち出して、後継機選定交渉に望むべきであろう。

 さて、こうした現在の状況は、そもそも地球シミュレータ・プロジェクトの開始段階で予測できたことなのである。この期に及んでのドタバタ劇から判断すると、地球シミュレータのプロジェクト・プランには、ライフサイクル・マネジメントが欠落していたということであり、プロジェクト・プランがボロボロであったということの証左と考えてよいであろう。
 米国でのプロジェクトのライフサイクル・マネジメントに関しては、今般、LLNLのBGLはスムーズに性能を2倍近くに増強しており、また、サンディア研のRed Stormも最初の40Tflops程度から現在の127.5Tflopsまで計画的に増強を行っている。
 これに対し、地球シミュレータは、この5年間何も出来なかったということで、契約管理やライフサイクル・マネジメントを含んだプロジェクト管理が杜撰であったといわざるを得ない。
 商品として広く流通できないような機器を調達すると、必ず、その維持保守管理、後継機、アプリケーションのポータビリティなどの問題が発生することはわかっていたことであり、地球シミュレータはこれらを全く考慮していなかったとしか思えないのである。



【次世代スパコン・プロジェクト】

 では、次世代スパコン・プロジェクトは、こうした地球シミュレータが直面している問題の反省の上に立ってプランされているのか、というと、NO としかいい様がないのである。
<参考:地球シミュレータは失敗作>
http://japan.cnet.com/blog/petaflops/2007/08/29/post_ab53/
<日本のスパコン戦略はボロボロ>
http://japan.cnet.com/blog/petaflops/2007/08/27/post_d9cd/

 2005年10月の文科省の資料(べクタ0.5PFlops、スカラ1.0Pflops、特定20Pflopsという性能案)では、建屋は3階建で、総床面積は地球シミュレータの3.5倍程度もあり、2000台近くのラックと、消費電力40MWで、プロジェクト総経費1154億円といったプランである。地球シミュレータの首を絞めた年間維持管理費は80億円強となっている。 建設予定地のポートアイランドには、関電の発電所建設が決まったと報道されている。(現在の性能案では特定が無くなり、スカラかベクタでLinpack10Pflops、HPCC Award4項目第1位を達成することになったため、消費電力、ラック数は増加せざるを得ないのではないかと予測される)

 要するに、地球シミュレータに比べ、プロジェクト総額2倍、建物3.5倍、消費電力6.7倍、維持管理費1.5倍というプランである。

 これに対し、まず言わなければならないのは、地球シミュレータの使用者ですら、最早、「ベクタ機には拘らない」といっているご時勢に、高額の開発経費をかけて無理にベクタ機を開発しなければならない理由を、文科省は開発費用を含め国民に判るように説明し、批判に答えねばならないということである。

 と同時に、富士通、日立のx86スパコン開発の発表は、次世代スパコン・プロジェクトのスカラ部をx86系にして何が不都合なのか、という疑問を提起することになる。1154億円などといった巨額の開発費を使わずとも、商業ベースで自然と実現されるのではないか、という疑問に対し、文科省は巨額経費を投入してでも次世代スパコンを開発しなければならないことを、合理的に説明できなければならないということである。

 そして、次世代スパコンは、仮に完成できたとしても、その時点で市販汎用スパコンとの性能競争に勝てるという保証はさらさらない上、年80億円超の巨額運営経費をかけて運営することになり、完成時点で既に、地球シミュレータと同じように、巨額運営経費と相対性能の低下により停止せざるを得ないような状況に追い込まれる可能性すらあるのである。

 地球シミュレータ開発の当時は米国もノーマークであったが、今回は米国は手ぐすねを引いて待ち構えており、完成時点で既に相対性能の劣化、陳腐化が進んでしまっている可能性が十分考えられるのである。
 しかも、スカラ機の高性能低価格化に追随出来ないベクタ機は、買い手も無く、後継機の開発すら出来ない状況に陥っている可能性が極めて高いのである。

 これでは、何のための開発かわからないし、結局、次世代スパコン開発は、無駄な投資、税金の浪費、一部公務員の自己満足、一部企業への税金の供与、などに過ぎないのではないかと批判されてもやむを得ないのではないだろうか。


 

 なお、筆者の誤解、思い違い、転記ミス、計算違い、あるいは不適切な表現等がございましたら、ぜひ、コメント欄にてご指摘いただけますと幸いです。




*************
このエントリーへのコメント
*************

8
To:コメント#7

>「一昔も、二昔も前の、銀行の勘定系システムなどではなく、単なる研究者向けの計算サーバー・システム」であるにも関わらず、保守料金が高いという事は、物の故障率だけでなく、 保守の要求仕様によっても大きく変わるという事、
  
ではなくて、 
 
【「一昔も、二昔も前の、銀行の勘定系システムなどではなく、単なる研究者向けの計算サーバー・システム」であるにも関わらず、保守料金が高いという事は、『物の故障率に基づかない、おかしな保守の要求仕様』、あるいは『おかしな保守契約』】と言うことでしょう。
 
 保守会社の人から見れば、「要求仕様」があるのだからしょうがない」といっているように聞こえますが、払う人(納税者)から見れば「とんでもない仕様だ」「とんでもない保守契約だ」ということになります。
 税金を使う人(調達者、契約を行った人)にとっては、予算は下りてくるのだし、自分の財布が傷むわけでもないので、「すぐに直してくれればどうでもよい」と言うことでしょうけれど、彼等には、納税者に対し説明責任があるはずで、たとえば「どうして60人常駐なのか」を説明できなければなりません。説明するには故障率は必須でしょう。

 要するに、要求仕様を含めた保守契約全体の合理性と内訳・積上の妥当性、つまり、保守契約のアカウンタビリティの基本になるのは「故障率」と言うことになると思います。

能澤 徹 on 2007/12/05

7
> 一昔も、二昔も前の、銀行の勘定系システムなどではなく、単なる研究者向けの計算サーバー・システム

であるにも関わらず、保守料金が高いという事は、物の故障率だけでなく、
保守の要求仕様によっても大きく変わるという事、
またその装置の保守の容易さ(今時PCなら工学系の学生はだれでも扱えるけど、専用のスーパーコンピューターは保守できない)
によっても変わるという事が、理解いただければ良いです。

地球シミュレーターの保守料金が妥当だという主張をするつもりはありません。

タクジ on 2007/12/05

6
To:コメント#5
>おそらく保守の要求スペックがあった上での金額であり、一律ではないと思います。

 勿論、保守要求仕様はあるでしょうし、保守経費の内訳・積上もあるでしょう。問題は、要求仕様の合理性と、内訳・積上の妥当性です。予算があるからといって、要求仕様を拡大解釈して、必要以上の積上を行ったのでは、一律と同じことなのではないでしょうか。

 一昔も、二昔も前の、銀行の勘定系システムなどではなく、単なる研究者向けの計算サーバー・システムで、しかも、システムの一部で故障が発生しても、ソフトウエア(OS)で、対象となるノードなり、ノードを集めたセグメントを、システムから切り離すことで、システム本体は何の問題も無く作動することが常識であるシステムです。

 保守経費が年間45億円、つまり、月額3.75億円ということは、パーツコスト等を保守費の半分程度と仮定し、保守要員の1人当たりの経費を月額100万円、1日3交代シフト、土日なしと仮定して、常時60人駐在の体勢になります。
 ESというシステムは、こういった保守要求仕様で、こういった保守体制をとらないと稼動できないシステムなんですね。
 

能澤 徹 on 2007/12/05

5
>  要するに、400億円だ、600億円だなどといった巨額な売価の機械で、
> 一律に売価の10%とか20%とかを保守料金とするなどといった保守契約は、おかしいと言うことです。

私は担当したメーカーの人間では無いので、見込みでの話になりますが、
おそらく保守の要求スペックがあった上での金額であり、
一律ではないと思います。

「修理には、年1回だけ来れば良くて、あとは保守の必要ありません。」
という要求スペックであれば、さすがに一律1割といった見積もりにはならないと思います。
人の動きで言えば、
保守員が24時間常駐する場合と、9:00~17:00、オンコールでの出動では、
人件費が大きく異なります。

あくまでも例えの話ですが、海外の大学が、PCベースの
超並列スーパーコンピューティングシステムを構築していて、
壊れたPCは、運用アルバイトの学生が丸ごと交換して、交換した後に、
メーカーに修理に発送する運用としていたとしたら、
それはメーカーとしても高い保守料は、要求できないハズです。

タクジ on 2007/12/04

4
To コメント#3
 コメントで述べられているもろもろのことの基本になっているのが「故障の発生する確率」で、これにもとづいて、稼動要求を満たすための最適な保守体制/リソースを考え、費用を算定して、保守契約を締結するのではないでしょうか? 
 要するに、400億円だ、600億円だなどといった巨額な売価の機械で、一律に売価の10%とか20%とかを保守料金とするなどといった保守契約は、おかしいと言うことです。

能澤 徹 on 2007/12/03

3
保守料金の考え方ですが、基本的には、故障率ではなく、
保守にかかるリソース(工数や部品代)がベースになるはずです。
それらのリソースは、求める運用能力によって異なります。
8割の稼働率で良くて、工数の安い時間帯に壊れた部品を
交換すれば良いという考え方と、
10割の稼働率が基本で、故障時には、2時間以内の回復が、
前提のシステムでは、ハードウェアが同じでも、保守に必要な、
リソースは異なります。

タクジ on 2007/12/03

2
(To:コメント#1)
概ねご意見には同意です。
筆者の基本的考え方は以下をご参照ください。

<米国のスパコン戦略とスパコン・デバイド>
http://japan.cnet.com/blog/petaflops/2007/08/03/post_2be6/

能澤 徹 on 2007/11/19

1
いつも楽しく読ませていただいています。

(国費を投入した)スパコンやその他のHPCについて、以前から抱いていた疑問がありました。それは要約すると、
(1)投入した費用に対して、それに見合う量の計算資源を調達できているのか。
(2)そうやって獲得した計算資源を有効に活用できているのか。(本来、より少ない計算資源で実行可能であるタスクに対して、無駄な計算資源を消費していないか。)
ということです。
これまで(そしてきっとこれからも)、このBlogで(1)について様々な検証をされてきたかと思いますが、(2)についてはどうなのでしょうか。
ぶっちゃけていうと、「スパコン、何に使っているの?、効率的に使っているの?」ということですが。

個人的には、(国内の活動に)必要な量の計算資源が調達できるのであれば、個別の機械の(特定のベンチマークで測定した)演算性能が世界トップレベルかどうかということには、こだわるべきではないと考えます。
たとえ国内に、世界トップレベルの性能を持つ機械がなくても、中程度以下の規模の(得られる計算資源に対して投資効率のよい)機械を(相対的に)多く保有することで、一国内の計算需要を満たせるのであれば、それで十分ではないでしょうか。個別の機械で「世界一の看板」を追求することに意味があるとはあまり思えません。

shouichi on 2007/11/18

  
Posted by petaflops at 21:39Comments(0)TrackBack(0) スパコン 02 

Top500: 日本のスパコン能力

公開日時: 2007/11/14 02:30
著者: 能澤 徹


 スパコンTop500(2007-11)で、インドのシステムが117.9Tflopsで第4位にランクされ、日本のトップの東工大のシステムは、その約半分の56.4Tflopsで第16位であった。日本のスパコン戦略は本当に大丈夫なのか?

以下に、TOP500にランクされたシステムの国別総和の表を示す。


 国名  実行性能 実行性能   台数 台数     平均性能
     TF    シェア%      シェア%    TF
1 米   4164.0  59.78%    283 56.60%    14.7
2 独   536.5   7.70%    31  6.20%    17.3
3 英   512.4   7.36%    48  9.60%    10.7
4 日   291.1   4.18%    20  4.00%    14.6
5 仏   222.6   3.19%    17  3.40%    13.1
6 印   194.5   2.79%     9  1.80%    21.6
7 Sweden 186.2   2.67%    7   1.40%    26.6
8 Spain  137.5   1.97%    9   1.80%   15.3
9 台   103.0    1.48%   11   2.20%    9.4
10 中   87.2    1.25%   10   2.00%    8.7
11 露   82.6    1.19%    7   1.40%   11.8
12 スイス 74.6    1.07%    7   1.40%   10.7
13 伊   69.1    0.99%    6   1.20%   11.5
14オランダ65.2    0.94%     6   1.20%   10.9
15 Finland 44.0   0.63%    5   1.00%   8.8
16 Canada 32.1    0.46%    5   1.00%   6.4
17 Norway 28.2    0.41%    3   0.60%   9.4
18Malaysia 27.7   0.40%    3   0.60%   9.2
19 韓    15.7    0.23%    1   0.20%   15.7
20 Turkey 13.8    0.20%    2   0.40%   6.9
21 Egypt  9.9    0.14%    1   0.20%   9.9
22 New Zealand 9.4  0.14%    1   0.20%   9.4
23 豪    9.0     0.13%    1   0.20%   9.0
24Indonesia 8.0    0.12%    1   0.20%   8.0
25Luxembourg 7.8   0.11%    1   0.20%   7.8
26 Singapore 7.7   0.11%    1   0.20%   7.7
27 Belgium 7.6    0.11%    1   0.20%   7.6
28 Poland  6.4    0.09%    1   0.20%    6.4
29 Brazil  6.2    0.09%    1   0.20%   6.2
30 Denmark 5.9    0.09%     1   0.20%    5.9

Totals    6965.8  100%     500   100%

 

 日本は実行性能シェアにおいても、台数シェアにおいても、米、独、英についで第4位である。性能的には、概ね、米国の14分の1、独、英の2分の1程度であり、インドの2倍、中国の3倍程度である。台数的にも、概ね、米国の14分の1で、英国の5分の2、ドイツの5分の3、インド、中国の2倍程度といったところである。 インド、中国の追い上げは激しい。

 では、日本はスパコンに予算を割いていないのか、というと、これはNOである。文科省の2005年10月の資料では、日本の15の主要大学・研究機関のスパコンのリース料合計は年額で260億円となっている。これは4年償却で考えると、買取でおよそ1000億円規模である。

 今回のTOP500で第3位にランクされたニューメキシコ州政府の126.9TflopsのSGI-Xeonシステムは$11M(約12.65億円、Y$115)と報道されている。つまりTflops単価は約1,000万円である。Sun、Cray、APPROなどのOpteron系もTflops単価は概ね700-800万円程度であり、またIBMのBlue Bene/Pも”1Mflops当たり10セント”、つまりTflops単価1150万円程度と報道されている。

 こうした国際価格を適用すれば、日本は、主要15機関の年間スパコン予算だけで、10ペタflops程度の総計算能力を確保できることになるのである。勿論、調達時期のスキューがあり、10ペタ丸々とはならないにしろ、国際価格で調達すれば、数ペタflops程度は確保できる予算額なのである。少なくとも、独英と同じ、望ましくは独英の2倍の1ペタflops程度は問題ない予算額である。
 要するに、日本のスパコン総演算能力が乏しいのは、予算が足りないからではなく、調達の仕方が悪いのである。調達の過程で、国税の円の価値が3分の1、4分の1に目減りしているのである。 (調達に関しては様々な議論があり、別途議論をしてみたい)

 文科省はスパコン戦略立案において、現在の国際的スパコン供給状況では、インドに限らず、マレーシア、中国、台湾、韓国などの政府が、若干の予算をつけるだけで、国際価格で調達できれば、いつでもTOP500のTOP10にランクインでき、日本を出し抜くことが出来るのである、という国際社会の厳しい現実を再認識すべきであるし、運用経費で首が絞まってしまった地球シミュレータの反省も無く、地球シミュレータの3倍超の施設を作って、同じ過ちを繰り返そうとしている「次世代スパコン開発」は、今、すぐにでも、再検討を行うべきではないだろうか。



 なお、筆者の誤解、思い違い、転記ミス、計算違い、あるいは不適切な表現等がございましたら、ぜひ、コメント欄にてご指摘いただけますと幸いです。

  
Posted by petaflops at 21:18Comments(0)TrackBack(0) Top500 Report 

スパコンTop500 2007-11

公開日時: 2007/11/13 09:00
著者: 能澤 徹



 2007年11月のスパコンTOP500(第30版)が発表された。  

 第1位は相変わらずリバモア研のBlue Gene/Lであるが、今回、増強がなされ、将に「ぶっちぎり」の478TFlopsである。SUN-TACCの0.5ペタ機を意識しての増強であったのかも知れないが、SUNのOpteronは不発。
 第2位の独ユーリヒ研のBlue Gene/PはBGPが順調であることを示しているが、実行性能比がリバモアのBGL(80%)に比べ、75%と低いのは気になる点。
 第3位、4位、5位はXeonであることと、ニュメキシコ州政府、インド、スウェーデン、というのは、意外で、伏兵。第3位のSGI(74%)は、4位(69%)、5位(70%)のHPのシステムに比べ実行性能比は良い。

 日本のスパコンはTOP500に20台のシステムが入ったが、台数では米、英、独の後塵をはいした。
 その中では、東工大が、頑張って、ClearSpeedを追加し、若干の増強を図ったが第16位。 地球シミュレータは第30位であった。
 


<世界のスパコンTOP500>


Rank Site             System              TFLOPS

1 米リバモア研 DOE/NNSA/LLNL eServer Blue Gene Solution     478.2
 
2 独ユーリッヒ研 Forschungszentrum Juelich (FZJ) Blue Gene/P 167.3
 
3 米NMCAC           SGI Altix ICE 8200        126.9
  New Mexico Computing Applications Center  Xeon quad core(3.0Ghz)
4 インドTATA SONS       Cluster Platform 3000 BL460c   117.9
                   HP Xeon 53xx 3GHz, Infiniband
5 スウェーデン政府機関      Cluster Platform 3000 BL460c   102.8
                   HP Xeon 53xx 2.66GHz, Infiniband
6 米サンディア研 NNSA/SNL   Cray Red Storm           102.2
                   Opteron 2.4 GHz dual core
7 米オークリッジ研 ORNL     Cray XT4/XT3            101.7
 
8 米IBMワトソン研        eServer Blue Gene Solution     91.3
 
9 米バークレイ研 NERSC/LBNL  Cray XT4, 2.6 GHz          85.4
 
10米Stony Brook & BNL       eServer Blue Gene Solution   82.2
  New York Center for Computational Sciences

<参考>
第50位  SGI          SGI Altix ICE 8200, 3.0 GHz     19.36
第100位 Centro de Supercomp.   Itanium2 Cluster          12.97
     de Galicia Integrity rx7640/Superdome、Spain、HP
第500位 英Semiconductor Company (O) Cluster Platform 3000 BL460c  5.93
                     HP Xeon 53xx 1.86GHz, GigEthernet




<日本のスパコン>

Rank Site      System                    TFLOPS

16 東工大 GSIC   Sun Fire x4600 Cluster          56.43
      Opteron 2.4/2.6 GHz+ClearSpeed Accelerator, Infiniband
30 海洋研      地球シミュレータ                35.86
 
52 産総研生命情報研 eServer Blue Gene Solution         18.67
 
55 高エネ研(KEK) eServer Blue Gene Solution          18.67
 
56 高エネ研(KEK) eServer Blue Gene Solution          18.67
 
70 東大       Hitachi SR11000-J2              15.81
 
79 九大       Fujitsu PRIMERGY RX200S3           15.09
 
81 海洋研      SGI Altix 4700 1.6 GHz            14.59
 
115 原研       SGI Altix 3700 Bx2, 1.6 GHz, NUMALink    11.81
 
140筑波大      PACS-CS(Fujitsu)                10.35
           low voltage Xeon 2.8 GHz, 3D Hyper-Crossbar
171高エネ研(KEK) eServer Blue Gene Solution 9.43
 
197気象庁      SR11000-K1/80(Hitachi)            9.04
 
198気象庁      SR11000-K1/80(Hitachi)            9.04
 
212理研       RIKEN Super Combined Cluster(Fujitsu)   8.73
 
360東大宇宙線研   SGI Altix ICE 8200 quad core 2.33 GHz    7.13
 
392名大       PRIMEPOWER HPC2500 (2.08 GHz)         6.86
           (Fujitsu)
422三菱UFJ証券  BladeCenter HS21(IBM)              6.52
           Xeon dual core, 3 GHz, GigEthernet, Windows OS
441東北大物性研   SR11000-K2(Hitachi)              6.27
 
456産総研グリッド研 AIST Super Cluster P-32             6.16
            Opteron 2.0 GHz, Myrinet
493東北大流体研   SGI Altix 3700 Bx2                6.01
            1.6 GHz, NUMALink, 10GigEthernet





*************
このエントリーへのコメント
*************


2
NUMA-linkの件、確認せず、失礼致しました。当該部分を削除いたします。
能澤 徹 on 2007/11/13


1
>第3位のSGI(74%)は、4位(69%)、5位(70%)のHPのシステムに比べ実行性能比が良い。これはインターコネクトのNUMA-LinkとInfinibandの差のように思える。

XeonはNUMAlinkに対応していません。
SGI Altix ICE 8200はCarlsbadのコードネームで開発されたブレードサーバー。
特徴としては
バックプレーンを介して3Dトーラス(Infiniband x4)でノード間を結合することでケーブルの本数を減らしてコストと重量を削減。
1Uに2枚収納できるハーフサイズのDPマザーボードでラック当たり512コアを実現。
といったところ。
compass_x86_64 on 2007/11/13


  
Posted by petaflops at 19:02Comments(0)TrackBack(0) Top500 Report