21世紀型データセンター
2023年12月31日
はじめに
廃校となった小学校の跡地を見て涙が出た。ピンネの山から吹き降ろす強烈な風が雪を低湿地に運び、えぐれた地面から吹き上げる。振り返ると北電砂川発電所と、東洋高圧の古い工場が見えた。
この街の特徴は何だったのだろう。
夕張や富良野のような観光地でもなければ、夕張や浦臼のようにメロンが有名な町でもない。わずかな稲作地はブランドや規模からして、隣の奈井江や深川に負けている。高速道路は通っているが、街を通り抜けるだけで市内にインターチェンジはない。
水と風と人が通り過ぎるまち、surachipt この街で新しい産業を興すことはできないのだろうか。
キーワード
雪冷データセンター、省電力データセンター、低環境負荷データセンター
リンク
勝手に Surachipt Data Stream を創ろう
砂川市役所公式 ウェブサイト Sunagawa City Hokkaido Official Web site
美唄市役所公式ウェブサイト Bibai City Hokkaido Official Web site
奈井江町公式ウェブサイト Naie Town Official Web site
空知工業団地公式ウェブサイト Sorachi Industrial Park Official Web site
美唄自然エネルギー研究会 Bibai Nature Energie Research Association Eneken facebook
※ このサイトは「『勝手』に Surachipt Data Stream を創ろう」です。上記自治体、団体とは何の関係もありません。
※ できるだけ良質な情報を提供することを目指します。表現や内容に不正確な場合はご指摘いただけると幸いです。
2015年05月18日
都市型DC、郊外型DC、地方型DC
都市型DC、郊外型DC、地方型DC
どういう違いがあるのでしょうか。
都市型DC
交通の便がよく、都心の高層ビル内にあり、駅から数分、セキュリティが高く、非常に高価。建物自体は事業者が所有しているのではなく、××不動産ビルなんて所の20階から29階までDCとしている、などというケースが多い。下手をすると、地下鉄の改札からノーチェックでDCのフロアまでは入り込めるケースもあるが、まぁそう言う所はまれ。ほとんど受付を通さないとエレベータも止まらない。
あまりに単価が高い事と、DCとして設計された建物ではないケースでは、想定外の重量で床が抜けそうなので、実際のスペース効率はひどく悪く、「選ばれた客」以外は断られる事もある。何しろフロアの半分は空いているのだが、機器の重量に耐えられないのだ。当然単価に跳ね返ってくる。 環境負荷なんて考えないからPUEは2.0以上ある事も当たり前で、そもそも機器が半分も入っていない部屋をガンガン冷やすため、凄いエネルギーを消費する。
しかし、事業者自身がDCとして設計した建物も多い。DC以外の利用目的がないため、単価はやっぱり非常に高い。ちょっと外れた湾岸地区なら倉庫から改造された建物もある。
ニーズは高いのだが、そもそも希少価値があるので、お値段も高い。
事業者のエンジニアの専門性もプライドも高い。
事業者の自社ビルじゃない場合は、当然「DCの引っ越し」という大事業があるわけです。容易ではないでしょうね。
郊外型DC
交通の便は一般的に悪い。都心のターミナル駅から電車に3回くらい乗り換えて1時間半、多くは郊外の住宅地で駅からバスで10分、徒歩5分のロケーション。大雨が降ったら行きたくない。数階建ての低層ビルで、事業者がビルを所有しているケースが多い。あるいは、倉庫会社などが、空き倉庫を使ってDCに転用しているケースがある。
エンジニアのレベルは一般的に高くはない。DC専門業者ならまだしも、大手のSI事業者がやっている場合は「メンタル系」のやっちゃった経験者や、吸収合併した顧客のシステム子会社社員に、顧客の依頼で出向させて遠距離通勤を強いて「リストラ部屋」代わりに勤務させているケースも多く、優秀なエンジニアはほとんど外注の派遣社員や、常駐している業務提携先のエンジニアが多く、正社員のモチベーションはメチャクチャ低い所もある。
そもそも業界の流行を後追いして、自社の技術力ではなく、下請けの他人のフンドシを借りて仕事をするSI事業者がやっている事は、レベルが低く、オーバースペックな設備を顧客に売るのが商売なので、これはこれで止むを得ないのかもしれない。
設備は思い切って設計できるため、免振床から生体認証、金属探知機、双発のディーゼル発電機など、事業者が思いっきりジマンできる面白いギミックが沢山詰め込む事ができる。何しろ、ビルの中で一番怪しい事をしそうな入館者は、センターの運営事業者自身の従業員だからである。
事業者は儲かっていないが、建設会社や設備関連の業者は笑いが止まらない。もっとも、顧客に買い取った大手さんの「いい顧客」を抱えているし、そういう顧客はシステム部門の専門家を丸ごとを売却してしまったため、価格を正当に評価できる人が居ないから「そんなもんか」程度に気軽にお金を落としてくれる。
首都圏から近いので、こういうシカケは年に一度くらいは顔を出す顧客受けには良いだろう。
サービスはそこそこ、単価もそこそこ。質は設備以外は期待しない方がいい。元々都市のヒートアイランド化と、東京湾から離れた内陸にあるため、PUEは恐ろしく高い。当然電源コストも高いので、決して安いとは言えない。元々都心型DCの受け皿なので、それなりに稼働率は高い。お値段も、それなりの設備を見ればわかる通り、決して安くはない。
地方型DC
本来ホスティングの為に設計されたところが多く、ハウジング向けではない。それでも、BCP拠点としてバックアップ用途に検討される事が多い。単価は安いが、年に一度もいくかどうかなので、存在すら忘れてしまう事もある。ハウジングするなら自己責任のリモート管理は必須。でもハウジングは止めた方がいい。多くの場合、非常に低い電力消費で動かすため、PUEは1.1前後が多く、そのレベルを目標としている。
エンジニアの専門性は高いが、ある意味では「専門バカ」に陥りやすい。どうも地方で仕事をしていると、専門性は高いが、世俗にいい意味でも悪い意味でも染まっていない。
質は高いが、ハウジングで利用するのは疑問。やっぱり「サービス」としてメニューから選択する方が正解。サービスとして見た場合、単価は馬鹿みたいに安い。IaaS や SaaS のクラウドサービスとして利用するのは正しい選択。
ホワイトデータセンター構想
どういう違いがあるのでしょうか。
都市型DC
交通の便がよく、都心の高層ビル内にあり、駅から数分、セキュリティが高く、非常に高価。建物自体は事業者が所有しているのではなく、××不動産ビルなんて所の20階から29階までDCとしている、などというケースが多い。下手をすると、地下鉄の改札からノーチェックでDCのフロアまでは入り込めるケースもあるが、まぁそう言う所はまれ。ほとんど受付を通さないとエレベータも止まらない。
あまりに単価が高い事と、DCとして設計された建物ではないケースでは、想定外の重量で床が抜けそうなので、実際のスペース効率はひどく悪く、「選ばれた客」以外は断られる事もある。何しろフロアの半分は空いているのだが、機器の重量に耐えられないのだ。当然単価に跳ね返ってくる。 環境負荷なんて考えないからPUEは2.0以上ある事も当たり前で、そもそも機器が半分も入っていない部屋をガンガン冷やすため、凄いエネルギーを消費する。
しかし、事業者自身がDCとして設計した建物も多い。DC以外の利用目的がないため、単価はやっぱり非常に高い。ちょっと外れた湾岸地区なら倉庫から改造された建物もある。
ニーズは高いのだが、そもそも希少価値があるので、お値段も高い。
事業者のエンジニアの専門性もプライドも高い。
事業者の自社ビルじゃない場合は、当然「DCの引っ越し」という大事業があるわけです。容易ではないでしょうね。
郊外型DC
交通の便は一般的に悪い。都心のターミナル駅から電車に3回くらい乗り換えて1時間半、多くは郊外の住宅地で駅からバスで10分、徒歩5分のロケーション。大雨が降ったら行きたくない。数階建ての低層ビルで、事業者がビルを所有しているケースが多い。あるいは、倉庫会社などが、空き倉庫を使ってDCに転用しているケースがある。
エンジニアのレベルは一般的に高くはない。DC専門業者ならまだしも、大手のSI事業者がやっている場合は「メンタル系」のやっちゃった経験者や、吸収合併した顧客のシステム子会社社員に、顧客の依頼で出向させて遠距離通勤を強いて「リストラ部屋」代わりに勤務させているケースも多く、優秀なエンジニアはほとんど外注の派遣社員や、常駐している業務提携先のエンジニアが多く、正社員のモチベーションはメチャクチャ低い所もある。
そもそも業界の流行を後追いして、自社の技術力ではなく、下請けの他人のフンドシを借りて仕事をするSI事業者がやっている事は、レベルが低く、オーバースペックな設備を顧客に売るのが商売なので、これはこれで止むを得ないのかもしれない。
設備は思い切って設計できるため、免振床から生体認証、金属探知機、双発のディーゼル発電機など、事業者が思いっきりジマンできる面白いギミックが沢山詰め込む事ができる。何しろ、ビルの中で一番怪しい事をしそうな入館者は、センターの運営事業者自身の従業員だからである。
事業者は儲かっていないが、建設会社や設備関連の業者は笑いが止まらない。もっとも、顧客に買い取った大手さんの「いい顧客」を抱えているし、そういう顧客はシステム部門の専門家を丸ごとを売却してしまったため、価格を正当に評価できる人が居ないから「そんなもんか」程度に気軽にお金を落としてくれる。
首都圏から近いので、こういうシカケは年に一度くらいは顔を出す顧客受けには良いだろう。
サービスはそこそこ、単価もそこそこ。質は設備以外は期待しない方がいい。元々都市のヒートアイランド化と、東京湾から離れた内陸にあるため、PUEは恐ろしく高い。当然電源コストも高いので、決して安いとは言えない。元々都心型DCの受け皿なので、それなりに稼働率は高い。お値段も、それなりの設備を見ればわかる通り、決して安くはない。
地方型DC
本来ホスティングの為に設計されたところが多く、ハウジング向けではない。それでも、BCP拠点としてバックアップ用途に検討される事が多い。単価は安いが、年に一度もいくかどうかなので、存在すら忘れてしまう事もある。ハウジングするなら自己責任のリモート管理は必須。でもハウジングは止めた方がいい。多くの場合、非常に低い電力消費で動かすため、PUEは1.1前後が多く、そのレベルを目標としている。
エンジニアの専門性は高いが、ある意味では「専門バカ」に陥りやすい。どうも地方で仕事をしていると、専門性は高いが、世俗にいい意味でも悪い意味でも染まっていない。
質は高いが、ハウジングで利用するのは疑問。やっぱり「サービス」としてメニューから選択する方が正解。サービスとして見た場合、単価は馬鹿みたいに安い。IaaS や SaaS のクラウドサービスとして利用するのは正しい選択。
ホワイトデータセンター構想
2014年05月30日
Openstack:クラウドソフトウェアって何?
最近、クラウド関連の記事を読むと Openstack の記事が目につきます。
Openstack はクラウド管理ソフトウェアの一つで、他に Cloud Stack や Eucryptus(ユーカリプタス)などが代表的です。数年前は Eucryptus が先進的でした。最近は Openstack が注目を浴びています。
Openstack は元々 NASA が開発して、Rackspace などのクラウド事業者が中心となって開発されてきました。今は多くのコンピュータベンダーが採用して開発に参加している、巨大なオープンソースプロジェクトです。
--
さて、クラウドソフトウェアって何でしょうか。実は私も良くわかりません。数年前に Eucryptus の本を買って読みましたがちんぷんかんぷんでした。
それでも一言で言うと
「何百台ものハードウェアとハイパーバイザーで動作する何千台もの仮想システムを管理するためのソフトウェア」
とでも言えば良いのでしょうか。
クラウドと仮想化(1台のハードウェア上のハイパーバイザーで何台ものコンピュータソフトウェアシステムを動かす技術)は切っても切れないものです。
ハイパーバイザーと言うのは、システムを仮想化するための基本ソフトウェア(オペレーティングシステムのようなもの)です。
私のお客様では、数台のコンピュータでハイパーバイザーが動いていて40台程度のシステムが動作している程度です。Openstack のような巨大なソフトウェアは必要としていません。
しかしあれば便利です。
実際の仮想化システムは、ハードウェアと仮想化ハイパーバイザーを管理している特権ユーザ(普通rootと言われる)が、仮想マシンを起動したり停止したり、作成したりします。
もし root 担当者が今日はお休みで。その場にいないのに、仮想システムがハングアップして再起動が必要になったとします。仮想システムを利用している利用者はシステムを操作する権限がないため再起動できません。
そこでクラウド管理ソフトウェアが必要となります。
例えば IaaS(Infrastructure as a Service)や、俗に言う「仮想マシン貸し」VPSサービスなどに利用されます。
例えば、ある小さな企業や個人が自分のウェブサイトを作ろうとしましょう。IaaS サービスに申し込むと、利用者アカウントとパスワードが与えられ、サービスのウェブサイトに接続できます。そこから、実際の「仮想コンピュータ」の root となって自由に仮想システムを作ったり、再起動することができます。しかし、実際のハイパーバイザーの root 権限はありません。
仮想上のシステムには、サービス事業者から与えられた ID とパスワードだけで root 権限で利用できます。
実際にインストール用のDVDメディアも必要なければ、Windowsのような場合のアクティベーションライセンスキーを入力することもありません。
また、仮想コンピュータに10Gバイトのディスクが必要だ、とした場合、利用者はそのディスクを準備する必要もありません。またインストール用のDVDメディアも、サービス事業者がディスクスペースにインストール用イメージとしてプールしています。
これらの管理は全て、クラウド管理ソフトウェアが行います。
例えば、ユーザがVPSサービスを申し込んで仮想コンピュータシステムを「作ろう」とした場合、どのハードウェアのハイパーバイザーであれば、必要なCPUの空きがあり、どのハードディスクプール(貯蔵池)に余裕があるかを判断し、顧客にそのスペースを用意します。
また、ある機材の負荷が高くて、他の利用者に影響が出るような場合、余裕のあるハードウェアにシステムを「移動」させることもクラウドソフトウェアの機能です。
クラウド事業者は、例えばマイクロソフトなどから、必要なライセンスを購入済みであるとします。顧客が「Windows を1台ほしい」と思えば、プールしておいたライセンスから一つ分を顧客に与えます。
顧客がそのサービスを停止してしまえば、ライセンスは一つ空きができるため、この空きは別な顧客が利用できるという仕組みです。
また、顧客がどれくらいのCPU性能を利用したのか、ディスクをどれだけ占有しているのか、通信量はどれくらいか、によって事業者は課金します。従量課金ですね。
この計算もクラウド管理ソフトウェアが行います。
--
私のお客様の小規模なプライベートクラウドでは、利用者さんが「こんなシステムが欲しい」という場合、十分から数十分の時間でシステムを用意できる体制になっています。しかし、この作業はお客様の管理者が手動で行わなければなりません。ただし、ハードウェアの調達費用が全くかからないため、通常なら数日から数週間かけて行われる「稟議」「調達」「設置」という面倒な作業が一切かかりません。これがクラウドサービスの最大の利点です。
大企業でのプライベートクラウドでは、ある事業部門が「Windowsサーバーが1台欲しい」ということになれば、数百台規模でプールされているハードウェアの中の一部分の「空き資源」を使ってサーバーを準備します。その時に威力を発揮するのが、クラウド管理ソフトウェアです。
また、クラウド管理ソフトウェアは、外部のクラウド事業者、例えば Amazon AWS の様な IaaS サービスとの互換性が重要です。社内で開発した、例えばアンケートや短期間のキャンペーン情報の配信システム、選挙速報のシステムなど、テスト済みの「仮想コンピュータ」を外部に公開する場合、互換性は重要です。
北海道石狩川中流域にデータセンターを誘致する勝手なプロジェクト
Openstack はクラウド管理ソフトウェアの一つで、他に Cloud Stack や Eucryptus(ユーカリプタス)などが代表的です。数年前は Eucryptus が先進的でした。最近は Openstack が注目を浴びています。
Openstack は元々 NASA が開発して、Rackspace などのクラウド事業者が中心となって開発されてきました。今は多くのコンピュータベンダーが採用して開発に参加している、巨大なオープンソースプロジェクトです。
--
さて、クラウドソフトウェアって何でしょうか。実は私も良くわかりません。数年前に Eucryptus の本を買って読みましたがちんぷんかんぷんでした。
それでも一言で言うと
「何百台ものハードウェアとハイパーバイザーで動作する何千台もの仮想システムを管理するためのソフトウェア」
とでも言えば良いのでしょうか。
クラウドと仮想化(1台のハードウェア上のハイパーバイザーで何台ものコンピュータソフトウェアシステムを動かす技術)は切っても切れないものです。
ハイパーバイザーと言うのは、システムを仮想化するための基本ソフトウェア(オペレーティングシステムのようなもの)です。
私のお客様では、数台のコンピュータでハイパーバイザーが動いていて40台程度のシステムが動作している程度です。Openstack のような巨大なソフトウェアは必要としていません。
しかしあれば便利です。
実際の仮想化システムは、ハードウェアと仮想化ハイパーバイザーを管理している特権ユーザ(普通rootと言われる)が、仮想マシンを起動したり停止したり、作成したりします。
もし root 担当者が今日はお休みで。その場にいないのに、仮想システムがハングアップして再起動が必要になったとします。仮想システムを利用している利用者はシステムを操作する権限がないため再起動できません。
そこでクラウド管理ソフトウェアが必要となります。
例えば IaaS(Infrastructure as a Service)や、俗に言う「仮想マシン貸し」VPSサービスなどに利用されます。
例えば、ある小さな企業や個人が自分のウェブサイトを作ろうとしましょう。IaaS サービスに申し込むと、利用者アカウントとパスワードが与えられ、サービスのウェブサイトに接続できます。そこから、実際の「仮想コンピュータ」の root となって自由に仮想システムを作ったり、再起動することができます。しかし、実際のハイパーバイザーの root 権限はありません。
仮想上のシステムには、サービス事業者から与えられた ID とパスワードだけで root 権限で利用できます。
実際にインストール用のDVDメディアも必要なければ、Windowsのような場合のアクティベーションライセンスキーを入力することもありません。
また、仮想コンピュータに10Gバイトのディスクが必要だ、とした場合、利用者はそのディスクを準備する必要もありません。またインストール用のDVDメディアも、サービス事業者がディスクスペースにインストール用イメージとしてプールしています。
これらの管理は全て、クラウド管理ソフトウェアが行います。
例えば、ユーザがVPSサービスを申し込んで仮想コンピュータシステムを「作ろう」とした場合、どのハードウェアのハイパーバイザーであれば、必要なCPUの空きがあり、どのハードディスクプール(貯蔵池)に余裕があるかを判断し、顧客にそのスペースを用意します。
また、ある機材の負荷が高くて、他の利用者に影響が出るような場合、余裕のあるハードウェアにシステムを「移動」させることもクラウドソフトウェアの機能です。
クラウド事業者は、例えばマイクロソフトなどから、必要なライセンスを購入済みであるとします。顧客が「Windows を1台ほしい」と思えば、プールしておいたライセンスから一つ分を顧客に与えます。
顧客がそのサービスを停止してしまえば、ライセンスは一つ空きができるため、この空きは別な顧客が利用できるという仕組みです。
また、顧客がどれくらいのCPU性能を利用したのか、ディスクをどれだけ占有しているのか、通信量はどれくらいか、によって事業者は課金します。従量課金ですね。
この計算もクラウド管理ソフトウェアが行います。
--
私のお客様の小規模なプライベートクラウドでは、利用者さんが「こんなシステムが欲しい」という場合、十分から数十分の時間でシステムを用意できる体制になっています。しかし、この作業はお客様の管理者が手動で行わなければなりません。ただし、ハードウェアの調達費用が全くかからないため、通常なら数日から数週間かけて行われる「稟議」「調達」「設置」という面倒な作業が一切かかりません。これがクラウドサービスの最大の利点です。
大企業でのプライベートクラウドでは、ある事業部門が「Windowsサーバーが1台欲しい」ということになれば、数百台規模でプールされているハードウェアの中の一部分の「空き資源」を使ってサーバーを準備します。その時に威力を発揮するのが、クラウド管理ソフトウェアです。
また、クラウド管理ソフトウェアは、外部のクラウド事業者、例えば Amazon AWS の様な IaaS サービスとの互換性が重要です。社内で開発した、例えばアンケートや短期間のキャンペーン情報の配信システム、選挙速報のシステムなど、テスト済みの「仮想コンピュータ」を外部に公開する場合、互換性は重要です。
北海道石狩川中流域にデータセンターを誘致する勝手なプロジェクト
2014年05月19日
カスタマイズが必要な日本の顧客:日本のガラパゴスクラウド
これはどこかの記事の受け売りなのですが、日本企業はとにかくパッケージソフトウェアでも何でもカスタマイズ(独自の修正)を求める傾向がある、と言われます。
パッケージソフトウェアは、特定の業務での最大公約数を併せ持った機能を備えています。パッケージソフトウェアを開発、提供している企業は、ターゲットとする業界に精通しています。つまり「この業界であれば、この機能があればほぼ業務はできる」という最大解決策(ベストプラクティクス)を満載して提供しているわけです。
しかし、それでも顧客は細かなカスタマイズを求めます。
そのため、日本には「SIベンダー」と呼ばれる日本独特の専門ビジネスが成立し、多くの「カスタマイズされたスパゲッティ」を料理しています。シンプルなソーメンにケチャップをかけて、塩味が足りないからと醤油と豆板醤を足す。そんな仕事です。
レシピはますます複雑になりますから、システムの改修コストは馬鹿みたいに高価になり、ますますオリジナルの「素の味」がどんなであったか、顧客の目標がなんであったのかを忘れてカスタマイズ競争に走る訳です。
俗に、ヒト、モノ、カネを管理するためのERP(「企業資源計画」というらしい)パッケージのカスタマイズは典型的です。有名な例では静岡銀行とIBMの訴訟合戦などがあります。
ここに、なぜ日本のクラウドビジネスが小規模で高価で、規模を追求できないかの理由があるように思えます。
よく言われる事ですが、海外企業では導入したパッケージソフトウェアに合わせて業務を変更して効率化に成功します。なぜならパッケージソフトウェアを開発した企業は、その事業分野に精通していて、ベストプラクティスを提供できるからです。
しかし日本企業では事業部門の要求に合わせてパッケージソフトウェアを変更して使います。
日本企業では情報部門の力が経営に密着せず、単なる「システムのお守り」ほどの力量がないのに対して、業務部門の意見が経営者に通じやすい、というのも理由の一つです。
--
ある意味、 SaaS (Software as a Service) は究極のパッケージソフトです。しかし日本企業はそこにもカスタマイズを求めます。
これも受け売りなので申し訳ないのですが、日本のあるITコンサルタントは、海外ベンダーがパッケージソフトやSaaSサービスを日本でも売りたい、という相談に対して、
「日本では商売にならないからやめとけ」
とアドバイスするのだそうです。B2C(個人向)ならいざ知らず、B2B(業務向)で海外製のパッケージを日本語化して成功したという事例はあまり聞いた事がありません。知っていたら教えてください。
実際、SBS(Small Bissuines Server) と呼ばれる製品があります。電子メールからファイルサービス、ユーザの認証管理などを全て賄う、10人~25人程度のスタートアップ事業者向けのオフィスサーバ製品のパッケージです。なぜか海外ではSBSは結構売れるのですが、同じものは日本では全く売れない、と某外資系ソフトウェアベンダーのセールスマン氏がぼやいていました。
--
例えば役場の住民管理だとか、学校の成績管理のシステムなどは、どのパッケージを使おうがほとんど差異はないのでしょうが、それでも顧客は独自仕様を求めます。
どうして、こういった共通の「業務」を共通化した仕様で構築できないのでしょうか。例えば地域で第三セクター化したデータセンターで集中管理してしまえば、導入、運用コストの大幅な削減ができます。現実に実施している自治体もあります。
しかしあまり大きな話題になることはありません。
ソフトウェアの共通化ができないため、必然的にシステムはオンプレミス(自社内運用)か、せいぜいデータセンターにハウジングして預けてしまう、程度のデータセンター利用しか期待できなくなります。
データセンターでのハウジングサービスはあくまでもオンプレミスの延長でしかありません。単にオフィスの電源や冷房コスト、騒音とスペース削減、物理的なセキュリティ面に役立つだけです。あくまでも非効率で電源を食いまくるサーバーを、仮想化して効率化して使用電力や無駄なディスクスペース、メモリを効率化することもせずに、「置き場所」を変えただけです。
--
この様に考えると、大都市圏のデータセンターの空きスペースが中々埋まらないのは当然の事です。何しろオンプレミスの延長でしかなく、引き換えに12.5Mバイト秒(100Mbpsとすると)しか出ない光回線、高価なハウジングコスト、バックアップテープを交換するだけでオフィスから片道1時間の距離。目で確認できないステータスランプ。
データセンターを使う上で何のメリットもないのです。だから首都圏のDCは空きが多い。埋まらないのです。
--
そこで、データセンターを「半製品化」して規格化することが一つの解決策として提案できます。
例えば NetIQ/Novell の Platespin や Barracuda の様な、V2P2Vのバックアップ、BCP(事業継続プラン)の専用アプライアンス製品を専門に扱う地方のデータセンター。これなら、ハードウェアもソフトウェアも共通化できるため、事業者側のスタッフも顧客向けの特別な訓練は必要ありません。
あるいは iSCSI の専用ハードディスクデバイスやテープカートリッジのオートローダーを並べたデータセンターなど、IaaS でもなければ、特殊なBCP対策を目的としたビジネスもあり得るでしょう。
--
しかしそういった単目的であってもカスタマイズを要求する日本の顧客。顧客の意識をかえなければならないのですが、DCビジネスのために顧客の意識が変わるわけもありません。やはりSIベンダー偏重の顧客意識全体が変わらない限り、相変わらず日本のクラウド、データセンタービジネスはガラパゴス化するしかないのでしょうか。
さすがに、単なる企業紹介のウェブサイトなどは、ホスティング業者を使う事が当たり前になりました。しかし電子メールはコンプライアンス云々の問題から、ホスティングされているものをそのまま利用できない。あるいは独自の機能を付加したいと言った要望があるようです。
昨年の記事ですが
変貌を遂げるデータセンタービジネス
でさくらインターネットの石狩データセンターが開所1年あまりで単月黒字となりました。しかし彼らにも悩みがあります。
例えば、ラックを貸し出す「ハウジング」では、1ラック当たりの月商は15万円程度に過ぎない。しかし、物理サーバーを貸し出す「ホスティング」の場合、1ラック当たりの月商は100万円ほどになり、仮想サーバーを貸し出す「クラウド」や「VPS(仮想プライベートサーバー)」では、1ラック当たりの月商は300万~400万円にも達する。当然ながら利益額も、、ハウジングなどよりホスティングやクラウドの方が大きい。
にも関わらず
「東日本大震災以降に、BCP(ビジネス継続計画)需要が急増した」(田中社長)ため、石狩DCは当初の想定よりも「ハウジングが売れてしまった」(同)という。
つまり、圧倒的にハウジングよりホスティングの方が効率的なのです。このコスト差は自然と顧客の支払うコストに跳ね返ります。
ここにも、日本固有の「ベンダー主導」の日本の情報業界の特殊性があります。なぜなら、SIベンダーとしては「機械が売れてソフトウェアが売れて単価の高いエンジニアを効率よく働かせる」ことが利益の根源だからです。
従って、上辺では「クラウド」を口にしながらも、現実には土地価格の高い首都圏の周辺の自社のデータセンターに「ハウジング」サービスを誘導しようとします。カタログには「都心から何十分」とか「東日本震災を想定した耐震、免震構造」「堅牢なセキュリティ」を謳います。当然、ラックの中に収まるのは自社扱い製品のサーバーや通信機器です。移動経費のかからない「自社のエンジニアが常時待機」できるわけですね。
当然、ラックのレンタル料金は高額になります。
だから首都圏のデータセンターは空きが多い。
もし、発想を全て逆回転すれば、
「クラウドは全てを仮想化して抽象化する」
わけですから、ハードウェアがどこにあろうが関係ないのです。処理用のCPUが首都圏にあって、バックアップシステムが地方にあってもおかしくない。また、自社のシステムがF通なのかN石なのかほーむぺーじなのか、出るなのかは関係ありません。ひょっとしたら無印のホワイトボックス(フルカスタム)サーバーなのかを知る必要もないのですね。
それがクラウドの本来の姿です。オンプレミスの延長ではありません。
ただ、その決断ができるのが、果たして情報部門なのか、経営層なのか利用者部門なのか、それが問題なのです。
北海道石狩川中流域にデータセンターを誘致する勝手なプロジェクト Surachipt Data Stream
パッケージソフトウェアは、特定の業務での最大公約数を併せ持った機能を備えています。パッケージソフトウェアを開発、提供している企業は、ターゲットとする業界に精通しています。つまり「この業界であれば、この機能があればほぼ業務はできる」という最大解決策(ベストプラクティクス)を満載して提供しているわけです。
しかし、それでも顧客は細かなカスタマイズを求めます。
そのため、日本には「SIベンダー」と呼ばれる日本独特の専門ビジネスが成立し、多くの「カスタマイズされたスパゲッティ」を料理しています。シンプルなソーメンにケチャップをかけて、塩味が足りないからと醤油と豆板醤を足す。そんな仕事です。
レシピはますます複雑になりますから、システムの改修コストは馬鹿みたいに高価になり、ますますオリジナルの「素の味」がどんなであったか、顧客の目標がなんであったのかを忘れてカスタマイズ競争に走る訳です。
俗に、ヒト、モノ、カネを管理するためのERP(「企業資源計画」というらしい)パッケージのカスタマイズは典型的です。有名な例では静岡銀行とIBMの訴訟合戦などがあります。
ここに、なぜ日本のクラウドビジネスが小規模で高価で、規模を追求できないかの理由があるように思えます。
よく言われる事ですが、海外企業では導入したパッケージソフトウェアに合わせて業務を変更して効率化に成功します。なぜならパッケージソフトウェアを開発した企業は、その事業分野に精通していて、ベストプラクティスを提供できるからです。
しかし日本企業では事業部門の要求に合わせてパッケージソフトウェアを変更して使います。
日本企業では情報部門の力が経営に密着せず、単なる「システムのお守り」ほどの力量がないのに対して、業務部門の意見が経営者に通じやすい、というのも理由の一つです。
--
ある意味、 SaaS (Software as a Service) は究極のパッケージソフトです。しかし日本企業はそこにもカスタマイズを求めます。
これも受け売りなので申し訳ないのですが、日本のあるITコンサルタントは、海外ベンダーがパッケージソフトやSaaSサービスを日本でも売りたい、という相談に対して、
「日本では商売にならないからやめとけ」
とアドバイスするのだそうです。B2C(個人向)ならいざ知らず、B2B(業務向)で海外製のパッケージを日本語化して成功したという事例はあまり聞いた事がありません。知っていたら教えてください。
実際、SBS(Small Bissuines Server) と呼ばれる製品があります。電子メールからファイルサービス、ユーザの認証管理などを全て賄う、10人~25人程度のスタートアップ事業者向けのオフィスサーバ製品のパッケージです。なぜか海外ではSBSは結構売れるのですが、同じものは日本では全く売れない、と某外資系ソフトウェアベンダーのセールスマン氏がぼやいていました。
--
例えば役場の住民管理だとか、学校の成績管理のシステムなどは、どのパッケージを使おうがほとんど差異はないのでしょうが、それでも顧客は独自仕様を求めます。
どうして、こういった共通の「業務」を共通化した仕様で構築できないのでしょうか。例えば地域で第三セクター化したデータセンターで集中管理してしまえば、導入、運用コストの大幅な削減ができます。現実に実施している自治体もあります。
しかしあまり大きな話題になることはありません。
ソフトウェアの共通化ができないため、必然的にシステムはオンプレミス(自社内運用)か、せいぜいデータセンターにハウジングして預けてしまう、程度のデータセンター利用しか期待できなくなります。
データセンターでのハウジングサービスはあくまでもオンプレミスの延長でしかありません。単にオフィスの電源や冷房コスト、騒音とスペース削減、物理的なセキュリティ面に役立つだけです。あくまでも非効率で電源を食いまくるサーバーを、仮想化して効率化して使用電力や無駄なディスクスペース、メモリを効率化することもせずに、「置き場所」を変えただけです。
--
この様に考えると、大都市圏のデータセンターの空きスペースが中々埋まらないのは当然の事です。何しろオンプレミスの延長でしかなく、引き換えに12.5Mバイト秒(100Mbpsとすると)しか出ない光回線、高価なハウジングコスト、バックアップテープを交換するだけでオフィスから片道1時間の距離。目で確認できないステータスランプ。
データセンターを使う上で何のメリットもないのです。だから首都圏のDCは空きが多い。埋まらないのです。
--
そこで、データセンターを「半製品化」して規格化することが一つの解決策として提案できます。
例えば NetIQ/Novell の Platespin や Barracuda の様な、V2P2Vのバックアップ、BCP(事業継続プラン)の専用アプライアンス製品を専門に扱う地方のデータセンター。これなら、ハードウェアもソフトウェアも共通化できるため、事業者側のスタッフも顧客向けの特別な訓練は必要ありません。
あるいは iSCSI の専用ハードディスクデバイスやテープカートリッジのオートローダーを並べたデータセンターなど、IaaS でもなければ、特殊なBCP対策を目的としたビジネスもあり得るでしょう。
--
しかしそういった単目的であってもカスタマイズを要求する日本の顧客。顧客の意識をかえなければならないのですが、DCビジネスのために顧客の意識が変わるわけもありません。やはりSIベンダー偏重の顧客意識全体が変わらない限り、相変わらず日本のクラウド、データセンタービジネスはガラパゴス化するしかないのでしょうか。
さすがに、単なる企業紹介のウェブサイトなどは、ホスティング業者を使う事が当たり前になりました。しかし電子メールはコンプライアンス云々の問題から、ホスティングされているものをそのまま利用できない。あるいは独自の機能を付加したいと言った要望があるようです。
昨年の記事ですが
変貌を遂げるデータセンタービジネス
でさくらインターネットの石狩データセンターが開所1年あまりで単月黒字となりました。しかし彼らにも悩みがあります。
例えば、ラックを貸し出す「ハウジング」では、1ラック当たりの月商は15万円程度に過ぎない。しかし、物理サーバーを貸し出す「ホスティング」の場合、1ラック当たりの月商は100万円ほどになり、仮想サーバーを貸し出す「クラウド」や「VPS(仮想プライベートサーバー)」では、1ラック当たりの月商は300万~400万円にも達する。当然ながら利益額も、、ハウジングなどよりホスティングやクラウドの方が大きい。
にも関わらず
「東日本大震災以降に、BCP(ビジネス継続計画)需要が急増した」(田中社長)ため、石狩DCは当初の想定よりも「ハウジングが売れてしまった」(同)という。
つまり、圧倒的にハウジングよりホスティングの方が効率的なのです。このコスト差は自然と顧客の支払うコストに跳ね返ります。
ここにも、日本固有の「ベンダー主導」の日本の情報業界の特殊性があります。なぜなら、SIベンダーとしては「機械が売れてソフトウェアが売れて単価の高いエンジニアを効率よく働かせる」ことが利益の根源だからです。
従って、上辺では「クラウド」を口にしながらも、現実には土地価格の高い首都圏の周辺の自社のデータセンターに「ハウジング」サービスを誘導しようとします。カタログには「都心から何十分」とか「東日本震災を想定した耐震、免震構造」「堅牢なセキュリティ」を謳います。当然、ラックの中に収まるのは自社扱い製品のサーバーや通信機器です。移動経費のかからない「自社のエンジニアが常時待機」できるわけですね。
当然、ラックのレンタル料金は高額になります。
だから首都圏のデータセンターは空きが多い。
もし、発想を全て逆回転すれば、
「クラウドは全てを仮想化して抽象化する」
わけですから、ハードウェアがどこにあろうが関係ないのです。処理用のCPUが首都圏にあって、バックアップシステムが地方にあってもおかしくない。また、自社のシステムがF通なのかN石なのかほーむぺーじなのか、出るなのかは関係ありません。ひょっとしたら無印のホワイトボックス(フルカスタム)サーバーなのかを知る必要もないのですね。
それがクラウドの本来の姿です。オンプレミスの延長ではありません。
ただ、その決断ができるのが、果たして情報部門なのか、経営層なのか利用者部門なのか、それが問題なのです。
北海道石狩川中流域にデータセンターを誘致する勝手なプロジェクト Surachipt Data Stream
2014年05月16日
自慰的発想,DC事業者のPUE値は、本当に効率を表す数値か
PUEというのは食べたハンバーガーのカロリーの何パーセントが自分のエネルギーとして使えて、何パーセントが糞になったのかを示す、データセンターの効率を表す数字です。PUEが1に近づけばそれだけ「効率の良い胃腸」を持っているということです。まぁ医者に言わせれば
「あなたの胃腸のPUEはいい数字ですね」
という事です。
サッカー選手のPUE 1.1 であれば、取得したエネルギー110の10%は寝ている時と練習中に使われ、100%はサッカーの試合中に使われた、という事です。
しかし実際に自分が口にするハンバーガーのカロリーを作り出すエネルギーがどれくらいかかったかを示す数値じゃございません。
ハンバーガーに使われる肉や小麦は海外からの輸入かも知れません。私たちの口に入るまで様々な流通コストとエネルギーが使われます。そこにどれだけ無駄なエネルギーを使ったかは、メニューのレシピには書かれていないのです。
あなたの口にしたものは、口からケツの穴までのエネルギー効率を考えた場合、PUEの換算はできる。それで自己満足してPUEを誇らしげに語るDC事業者は偽善者です。
口にしたものの種から排泄物のエネルギーの再利用まで考えた時、データセンターのPUEはどれだけDCの効率としての指標の価値があるのでしょうか。
--
PUEを引き下げつコツ
PUEを引き下げる事は簡単です。例えば、DCの事務所や冷暖房の電源を切る。DCのエレベータの電源を切る。ハウジングをしないでホスティングだけをする。当然DC内部の照明は切って真っ暗。エレベータも止まっているから、中に入るヒトは懐中電灯を持って階段を使う。PUEは下がります。
極端なハナシですが、事務棟をDCから徒歩5分の所に構えてガンガン冷房を利かせて、「節電なんて気にしない」で使いまくってもDCそのものは無人運転だから、最低限の冷房費だけで運用できるわけですね。
しかしハウジングをするならそれでは顧客は不満でしょう。顧客のシステムのハウジング、コロケーションをするDCはそれなりの維持コストがかかりますから、PUEは当然上がります。DC内部に訪問した顧客の「リラックススペース」だとか飲み物の自動販売機を設置するとか、小さな会議室を作ったり、出はいりの度にWEBカメラを動作させる、DCのラックスペースに照明をつける、などの余計な設備を作る必要があれば当然これはPUEに影響します。
しかしハウジングを止めて、
「全部ホスティング」
であれば、全て企画書通りの仕様でハードウェアを揃えることができるのです。真っ暗なDC内部。規格通りのサイズのコンピュータ。動かないエレベータ。人が入館して操作することのないリモート管理システム。そうすればPUEを下げることは簡単なのです。
ハウジングであれば規格外の機器がラックに入るため、いくらホットアイルとチルドアイルをわけてもラックの中のスカスカなスペースで無駄な冷気がホットアイルに流れるわけですから、冷房効率も良いわけがありません。
これでPUEという「ハコ」の性能を測定すること自体に意味がありません。
例えばさくらインターネットがやっているような直流送電システムなどで100の電力でコンピュータを80台動かそうが、100の電力をインバーター経由で非効率な電力の使い方で50台のコンピュータを動作させても、PUE値は冷房抜きで1.0です。勿論、効率が良い給電方法を使えば、冷却に必要な電力の削減には役立ちますが、そういうことを抜きにしてPUEだけでデータセンターの効率を測ることは非常に無意味なことだと思います。
TDP45WのコンピュータとTDP130Wのコンピュータで同じ作業を行ったとしても、電力代は前者が月あたり1000円、後者が2500円だったとしてもデータセンターのPUE値には関係ありません。PUE値はDC全体の効率を表す値であり、コンピュータの電力使用量と処理性能比ではないのです。
また、発電所>変電所>DCへと電力が送られるわけですが、この距離が長ければ長いほど非効率です。この非効率さも「DC」という口からケツの穴までの効率だけで「効率が良い」という考え方は、DC事業者の自慰的な満足値でしかありません。
口に入る植物が、地元で取れた野菜なのか、地球の反対側から航空便で運ばれたものなのかでも地球全体の効率からして阿保な比較なのです。茨城県沖で取れた1000円のアン肝と、フランス製のフォアグラ5000円を食べて、同じ栄養亜があったとしても、食べ物としてのPUE値は同じなのです。
石狩川中流域にある美唄市では地元美唄産の石炭を利用した豊富な砂川と奈井江の北電火力発電所の電力(短い送電区間)と、広大な土地の巨大なメガソーラーシステム、さらにはデータセンターの排熱温水を利用した、農業での再利用まで想定した、地域全体の取り組みというテーマを提案しました。DC単体ではなく、「地域全体でのPUE」、電力消費だけではなく地域住民の生活と他の産業との組み合わせによる、雪を使った水冷熱冷房システムを使ったデータセンターを提案しています。
http://www.net-bibai.co.jp/eneken/enekendatacen.html
石狩平野にデータセンターを誘致する身勝手なプロジェクト
「あなたの胃腸のPUEはいい数字ですね」
という事です。
サッカー選手のPUE 1.1 であれば、取得したエネルギー110の10%は寝ている時と練習中に使われ、100%はサッカーの試合中に使われた、という事です。
しかし実際に自分が口にするハンバーガーのカロリーを作り出すエネルギーがどれくらいかかったかを示す数値じゃございません。
ハンバーガーに使われる肉や小麦は海外からの輸入かも知れません。私たちの口に入るまで様々な流通コストとエネルギーが使われます。そこにどれだけ無駄なエネルギーを使ったかは、メニューのレシピには書かれていないのです。
あなたの口にしたものは、口からケツの穴までのエネルギー効率を考えた場合、PUEの換算はできる。それで自己満足してPUEを誇らしげに語るDC事業者は偽善者です。
口にしたものの種から排泄物のエネルギーの再利用まで考えた時、データセンターのPUEはどれだけDCの効率としての指標の価値があるのでしょうか。
--
PUEを引き下げつコツ
PUEを引き下げる事は簡単です。例えば、DCの事務所や冷暖房の電源を切る。DCのエレベータの電源を切る。ハウジングをしないでホスティングだけをする。当然DC内部の照明は切って真っ暗。エレベータも止まっているから、中に入るヒトは懐中電灯を持って階段を使う。PUEは下がります。
極端なハナシですが、事務棟をDCから徒歩5分の所に構えてガンガン冷房を利かせて、「節電なんて気にしない」で使いまくってもDCそのものは無人運転だから、最低限の冷房費だけで運用できるわけですね。
しかしハウジングをするならそれでは顧客は不満でしょう。顧客のシステムのハウジング、コロケーションをするDCはそれなりの維持コストがかかりますから、PUEは当然上がります。DC内部に訪問した顧客の「リラックススペース」だとか飲み物の自動販売機を設置するとか、小さな会議室を作ったり、出はいりの度にWEBカメラを動作させる、DCのラックスペースに照明をつける、などの余計な設備を作る必要があれば当然これはPUEに影響します。
しかしハウジングを止めて、
「全部ホスティング」
であれば、全て企画書通りの仕様でハードウェアを揃えることができるのです。真っ暗なDC内部。規格通りのサイズのコンピュータ。動かないエレベータ。人が入館して操作することのないリモート管理システム。そうすればPUEを下げることは簡単なのです。
ハウジングであれば規格外の機器がラックに入るため、いくらホットアイルとチルドアイルをわけてもラックの中のスカスカなスペースで無駄な冷気がホットアイルに流れるわけですから、冷房効率も良いわけがありません。
これでPUEという「ハコ」の性能を測定すること自体に意味がありません。
例えばさくらインターネットがやっているような直流送電システムなどで100の電力でコンピュータを80台動かそうが、100の電力をインバーター経由で非効率な電力の使い方で50台のコンピュータを動作させても、PUE値は冷房抜きで1.0です。勿論、効率が良い給電方法を使えば、冷却に必要な電力の削減には役立ちますが、そういうことを抜きにしてPUEだけでデータセンターの効率を測ることは非常に無意味なことだと思います。
TDP45WのコンピュータとTDP130Wのコンピュータで同じ作業を行ったとしても、電力代は前者が月あたり1000円、後者が2500円だったとしてもデータセンターのPUE値には関係ありません。PUE値はDC全体の効率を表す値であり、コンピュータの電力使用量と処理性能比ではないのです。
また、発電所>変電所>DCへと電力が送られるわけですが、この距離が長ければ長いほど非効率です。この非効率さも「DC」という口からケツの穴までの効率だけで「効率が良い」という考え方は、DC事業者の自慰的な満足値でしかありません。
口に入る植物が、地元で取れた野菜なのか、地球の反対側から航空便で運ばれたものなのかでも地球全体の効率からして阿保な比較なのです。茨城県沖で取れた1000円のアン肝と、フランス製のフォアグラ5000円を食べて、同じ栄養亜があったとしても、食べ物としてのPUE値は同じなのです。
石狩川中流域にある美唄市では地元美唄産の石炭を利用した豊富な砂川と奈井江の北電火力発電所の電力(短い送電区間)と、広大な土地の巨大なメガソーラーシステム、さらにはデータセンターの排熱温水を利用した、農業での再利用まで想定した、地域全体の取り組みというテーマを提案しました。DC単体ではなく、「地域全体でのPUE」、電力消費だけではなく地域住民の生活と他の産業との組み合わせによる、雪を使った水冷熱冷房システムを使ったデータセンターを提案しています。
http://www.net-bibai.co.jp/eneken/enekendatacen.html
石狩平野にデータセンターを誘致する身勝手なプロジェクト
データセンターの排熱を利用する画期的なアイディア
まさかこの手があるとは思いませんでした。
「DCの排熱を農業に利用する」
--
データセンター構築運用展に行ってきました。
http://www.dc-expo.jp
あの凄まじい、コンピュータが作り出す無駄な熱をどう利用するのかは大変大きな問題です。美唄エネルギー研究会は一つの提案を出しています。
http://www.net-bibai.co.jp/eneken/enekendatacen.html
「排熱で農作物を作ればいいじゃん」
この発想はワタシにもありませんでした。スターリングエンジンは使えないかとか、精々
「温水を農作物の霜害対策に使えないか」程度でした。
この発想は都市圏のDC運用事業者には絶対にありえない発想です。データセンターの横にビニールハウスを並べて、DCでビニールハウスで冬でも野菜が作れる。また、農産地ならではの発想です。また農産物の産業廃棄物(もみ殻だとか豆殻だとか)をバイオマス燃料として使う。
全てセットで考えれば地産地消を上手く利用した、織田信長の合理的な考え方を踏襲しています。
うーん、無学の百姓でも100人集まればすごいアイディアが出るんだよな。そういう私も百姓出身です。このノブナガ的なアイディアは百姓出身のヒデヨシが実現するはず。
データセンターの排熱をどう利用するのか。
美唄市は一つの提案をしました。
「低熱源からは産業用エネルギーの再利用できない。なら農業に利用すればいい」
この発想は北海道の農産の中心部に位置する、石狩川中流域、中部空知地方のニンゲンでなければ発想できません。
勝手に石狩川中流域にデータセンターを誘致するプロジェクト
「DCの排熱を農業に利用する」
--
データセンター構築運用展に行ってきました。
http://www.dc-expo.jp
あの凄まじい、コンピュータが作り出す無駄な熱をどう利用するのかは大変大きな問題です。美唄エネルギー研究会は一つの提案を出しています。
http://www.net-bibai.co.jp/eneken/enekendatacen.html
「排熱で農作物を作ればいいじゃん」
この発想はワタシにもありませんでした。スターリングエンジンは使えないかとか、精々
「温水を農作物の霜害対策に使えないか」程度でした。
この発想は都市圏のDC運用事業者には絶対にありえない発想です。データセンターの横にビニールハウスを並べて、DCでビニールハウスで冬でも野菜が作れる。また、農産地ならではの発想です。また農産物の産業廃棄物(もみ殻だとか豆殻だとか)をバイオマス燃料として使う。
全てセットで考えれば地産地消を上手く利用した、織田信長の合理的な考え方を踏襲しています。
うーん、無学の百姓でも100人集まればすごいアイディアが出るんだよな。そういう私も百姓出身です。このノブナガ的なアイディアは百姓出身のヒデヨシが実現するはず。
データセンターの排熱をどう利用するのか。
美唄市は一つの提案をしました。
「低熱源からは産業用エネルギーの再利用できない。なら農業に利用すればいい」
この発想は北海道の農産の中心部に位置する、石狩川中流域、中部空知地方のニンゲンでなければ発想できません。
勝手に石狩川中流域にデータセンターを誘致するプロジェクト
2014年02月17日
エネルギーと情報エネルギーの地産地消、
データセンターと太陽光発電所を超電導ケーブルで接続
石狩平野は言うまでもなく広大で、データセンターの立地にも、メガソーラーの立地条件にも恵まれています。
先日美唄市を通った時、中部空知工業団地の中に巨大な面積のメガソーラーが出来ていました。この地区にはほかにも露天掘りによる石炭採掘、砂川、および奈井江に合計4基の発電タービンが稼働しています。
いま石狩がっわ流域で生産されるものは「米」と「野菜」そして「電気エネルギー」と「情報」です。
情報はこの地で産出できる一つの「産物」ですが、消費地は都会であり、世界各地なのですね。
石狩平野をアジアのシリコンバレーにする勝手なプロジェクト
http://islandcenter.jp/surachipt
石狩平野は言うまでもなく広大で、データセンターの立地にも、メガソーラーの立地条件にも恵まれています。
先日美唄市を通った時、中部空知工業団地の中に巨大な面積のメガソーラーが出来ていました。この地区にはほかにも露天掘りによる石炭採掘、砂川、および奈井江に合計4基の発電タービンが稼働しています。
いま石狩がっわ流域で生産されるものは「米」と「野菜」そして「電気エネルギー」と「情報」です。
情報はこの地で産出できる一つの「産物」ですが、消費地は都会であり、世界各地なのですね。
石狩平野をアジアのシリコンバレーにする勝手なプロジェクト
http://islandcenter.jp/surachipt
2013年10月05日
10分でできるデータセンター?
オンラインオークションで有名な eBay のデータセンターは僅か10分で1500台のサーバーを増設するそうで....
[すごい増設スピード]サーバー1500台を10分で追加
実際には10分でこれだけの台数のサーバーを準備できるわけがない、と思います。記事ではコンテナDCなら10分で用意完了なわけですが、実際には、DCコンテナ1台を、発注>製造>運搬>設定、して初めて「運用」となるわけです。その期間を考えると現実には少なくとも数週間はかかるわけですね。
おもしろいのはこのDCは砂漠の気温40度以上にもなる立地条件の中で運用されているということです。
[すごい増設スピード]サーバー1500台を10分で追加
実際には10分でこれだけの台数のサーバーを準備できるわけがない、と思います。記事ではコンテナDCなら10分で用意完了なわけですが、実際には、DCコンテナ1台を、発注>製造>運搬>設定、して初めて「運用」となるわけです。その期間を考えると現実には少なくとも数週間はかかるわけですね。
おもしろいのはこのDCは砂漠の気温40度以上にもなる立地条件の中で運用されているということです。
2012年10月31日
データセンターと仮想化
仮想化は古くからある技術でもあり、新しい技術です。
古くは数億円するメインフレームではCPU時間を「借りる」ビジネスだったため「仮想化」は当たり前の技術だったようですが、PCサーバーがコンピューターシステムの中心となってから、仮想化は再びコンピュータシステムでは「ごく当たり前」の技術として認識されています。
-仮想化を支えるハードウェアの進化-
仮想化は、ソフトウェア技術者にとっては夢の技術だったのですが、この技術を満たせるハードウェアが、IBMをはじめとするメインフレームの大型コンピューターの技術でした。しかし、私が初めてPC用の XEN という仮想化技術にトライしたときの驚きは、今までの概念を全て打ち壊すくらいのインパクトを感じました。
それまで「エミュレータ」というアプリケーションでの仮想化技術を見てきたエンジニアにとっては、実ハードウェアと同じ性能を出す仮想化という技術は大変なイノベーションを感じました。
今の時点では単に「仮想化」という場合、1台のコンピュータシステム上に複数のコンピュータシステムをカプセルの中で動作させる技術の一つでかなり広い意味に使われるようになりました。
-背景-
背景としては、コンピュータのハードウェアの進化がソフトウェアの進化より早いということが一つの理由です。またソフトウェアを利用する私たちがそれほどのハードウェアの性能を必要としないことも一つの理由です。
例えば、今安いパソコンをを3万円で買っても十分な記憶装置が付いてきます。20万円も出すと、一般的な利用者では使いきれないほどの性能のコンピュータが手に入ります。
また、コンピュータの性能の一部分に「CPUクロック」というものがあります。これは「1秒間に何回計算できるか」の指標の一つですが、この数年3.5Ghz程度を境に向上していません。その代わり、1つのCPUに複数のCPU機能(コア)を詰め込み「1秒間の計算能力×CPUコア数」で性能を稼ぐようになりました。しかし、この複数のCPUコアを使いきれるだけのソフトウェア(アプリケーション)はまだあまり多くはありません。
であれば、「使い切れない分」を複数の機能に分割してカプセル化して何台もの資源にしてしまえばよいではないか、ということが一つの理由です。
-さまざまな用途に最適化-
コンピュータを使ったインフラストラクチャにはさまざまな目的のものがあります。CPUの性能や記憶域をほとんど使わないが、その代わり通信機能に大きな負担がかかるもの、メモリや記憶域は沢山必要だがCPU能力が低くてもいいもの、記憶域は少なくてもよいが、CPU性能が必要なもの。
それぞれの必要に応じてコンピュータを買い換えたり追加することは大変な手間と費用がかかり、また、多くの場合、それだけの性能が必要はないことが多いのです。また、実際にサービスを開始するまで、時間がかかるため、問題解決をするためのスタートアップが遅くなります。
また、それだけのコンピュータを動作させるための配線や電源、スペースも用意する必要があります。
そこで、「仮想化ホスト」コンピュータを1台準備すれば、その中に素早く新しいシステムを導入して、少ないコストで素早いサービス開始が行えることになります。また、1台のコンピュータに何十台ものコンピュータシステムを「仮想動作」させて、性能が低下するようであれば、別なコンピュータに資源をバラして各コンピュータにバランスよく計算資源や記憶領域を配置すれば、必要な性能が確保できます。
-短期間で利用開始、短期間で利用終了-
コンピュータの利用目的はさまざまです。電子メールやグループウェア、ファイルサービス、各種データベースのように数年、数十年にわたって利用する必要があるものもあれば、セールスプロモーションキャンペーン、選挙管理、人気のあるゲームやソフトウェアの配布、などのように数日から数ヶ月短期間稼動すればよいものもあります。
短期間稼動させるシステムのために、3年償却のコンピュータシステムを導入するのはあまりにも無駄です。そこで、データセンターに配置した「仮想子コンピュータ」の資源を短期間「借りる」ことになります。
-UNIX/Linuxが中心-
主なデータセンターで利用される仮想化技術はUNIX/Linuxを中心とした XEN や KVM と呼ばれるオープンソース技術がよく使われます。ライセンス費用や制限が緩やかなことが最大の理由です。Windows を使うとそれぞれに厳しいライセンス費用が発生するため、コスト的に仮想化には向いていません。(たとえ使っていなくてもライセンス費用がかかります)それでも運用者側の理由(エンジニアの訓練費用)の面で Windows を仮想化に利用するケースはあります。また VMware 社が開発したソフトウェアは、大手企業のプライベートクラウドで運用されています。ライセンス料は非常に高価なので、一般的に低コストでサービスを提供するDC事業者では人気がありません。
-仮想化でホットな話題-
今、仮想化の技術で一番ホットな話題は「仮想システムの適切な再配置」を行う技術です。今どのコンピューターが忙しく、どのコンピューターが暇であるかを判断し、「仮想コンピュータ」を切り替える技術です。
また、テストで作ったサービスに問題がなければ、クラウドサービスとして公開する場合にもこれらの技術が必要となります。
Openstack, Opencloud, Eucalyptus(ユーカリプタス)などのオープン製品や Novell 社の Platespin などがあります。特に Platespin Forge というハードウェアと一体化した製品(アプライアンス製品)は、通信さえ設定できてしまえば、遠隔地のバックアップセンターに災害対策拠点が作れるため、非常に人気が高いようです。また、通信経路を自動的に適切に配置するための「ネットワーク仮想化」という技術も注目されています。
ただし、仮想化システムを適切に分散配置するには、まだ「自動化」を完全にする技術で定評があるものが少ないのが実情です。
例えば「クラスタリング(複数の機器をまとめて1台のシステムに見せかける技術)」「フェイルオーバー(故障した機器を自動的に切り替える)」とか「ロードバランシング(付加分散)」といった技術があります。これは機器が壊れたり、高い負荷で応答が遅くなった場合に自動的に他の資源に割り当てる機能として、大型のシステムでは普通に利用されている技術なのですが、ロードバランシングを除いて、あまり進化が進んでいません(というより、一番ホットな話題だということです)
これは、インターネットという、「あまり信頼性のない」緩やかな通信経路を使って「データの100%の信頼性」を確保することが難しいことにもよります。
雪熱冷房、勝手に北海道、空知にデータセンターを誘致するプロジェクト
古くは数億円するメインフレームではCPU時間を「借りる」ビジネスだったため「仮想化」は当たり前の技術だったようですが、PCサーバーがコンピューターシステムの中心となってから、仮想化は再びコンピュータシステムでは「ごく当たり前」の技術として認識されています。
-仮想化を支えるハードウェアの進化-
仮想化は、ソフトウェア技術者にとっては夢の技術だったのですが、この技術を満たせるハードウェアが、IBMをはじめとするメインフレームの大型コンピューターの技術でした。しかし、私が初めてPC用の XEN という仮想化技術にトライしたときの驚きは、今までの概念を全て打ち壊すくらいのインパクトを感じました。
それまで「エミュレータ」というアプリケーションでの仮想化技術を見てきたエンジニアにとっては、実ハードウェアと同じ性能を出す仮想化という技術は大変なイノベーションを感じました。
今の時点では単に「仮想化」という場合、1台のコンピュータシステム上に複数のコンピュータシステムをカプセルの中で動作させる技術の一つでかなり広い意味に使われるようになりました。
-背景-
背景としては、コンピュータのハードウェアの進化がソフトウェアの進化より早いということが一つの理由です。またソフトウェアを利用する私たちがそれほどのハードウェアの性能を必要としないことも一つの理由です。
例えば、今安いパソコンをを3万円で買っても十分な記憶装置が付いてきます。20万円も出すと、一般的な利用者では使いきれないほどの性能のコンピュータが手に入ります。
また、コンピュータの性能の一部分に「CPUクロック」というものがあります。これは「1秒間に何回計算できるか」の指標の一つですが、この数年3.5Ghz程度を境に向上していません。その代わり、1つのCPUに複数のCPU機能(コア)を詰め込み「1秒間の計算能力×CPUコア数」で性能を稼ぐようになりました。しかし、この複数のCPUコアを使いきれるだけのソフトウェア(アプリケーション)はまだあまり多くはありません。
であれば、「使い切れない分」を複数の機能に分割してカプセル化して何台もの資源にしてしまえばよいではないか、ということが一つの理由です。
-さまざまな用途に最適化-
コンピュータを使ったインフラストラクチャにはさまざまな目的のものがあります。CPUの性能や記憶域をほとんど使わないが、その代わり通信機能に大きな負担がかかるもの、メモリや記憶域は沢山必要だがCPU能力が低くてもいいもの、記憶域は少なくてもよいが、CPU性能が必要なもの。
それぞれの必要に応じてコンピュータを買い換えたり追加することは大変な手間と費用がかかり、また、多くの場合、それだけの性能が必要はないことが多いのです。また、実際にサービスを開始するまで、時間がかかるため、問題解決をするためのスタートアップが遅くなります。
また、それだけのコンピュータを動作させるための配線や電源、スペースも用意する必要があります。
そこで、「仮想化ホスト」コンピュータを1台準備すれば、その中に素早く新しいシステムを導入して、少ないコストで素早いサービス開始が行えることになります。また、1台のコンピュータに何十台ものコンピュータシステムを「仮想動作」させて、性能が低下するようであれば、別なコンピュータに資源をバラして各コンピュータにバランスよく計算資源や記憶領域を配置すれば、必要な性能が確保できます。
-短期間で利用開始、短期間で利用終了-
コンピュータの利用目的はさまざまです。電子メールやグループウェア、ファイルサービス、各種データベースのように数年、数十年にわたって利用する必要があるものもあれば、セールスプロモーションキャンペーン、選挙管理、人気のあるゲームやソフトウェアの配布、などのように数日から数ヶ月短期間稼動すればよいものもあります。
短期間稼動させるシステムのために、3年償却のコンピュータシステムを導入するのはあまりにも無駄です。そこで、データセンターに配置した「仮想子コンピュータ」の資源を短期間「借りる」ことになります。
-UNIX/Linuxが中心-
主なデータセンターで利用される仮想化技術はUNIX/Linuxを中心とした XEN や KVM と呼ばれるオープンソース技術がよく使われます。ライセンス費用や制限が緩やかなことが最大の理由です。Windows を使うとそれぞれに厳しいライセンス費用が発生するため、コスト的に仮想化には向いていません。(たとえ使っていなくてもライセンス費用がかかります)それでも運用者側の理由(エンジニアの訓練費用)の面で Windows を仮想化に利用するケースはあります。また VMware 社が開発したソフトウェアは、大手企業のプライベートクラウドで運用されています。ライセンス料は非常に高価なので、一般的に低コストでサービスを提供するDC事業者では人気がありません。
-仮想化でホットな話題-
今、仮想化の技術で一番ホットな話題は「仮想システムの適切な再配置」を行う技術です。今どのコンピューターが忙しく、どのコンピューターが暇であるかを判断し、「仮想コンピュータ」を切り替える技術です。
また、テストで作ったサービスに問題がなければ、クラウドサービスとして公開する場合にもこれらの技術が必要となります。
Openstack, Opencloud, Eucalyptus(ユーカリプタス)などのオープン製品や Novell 社の Platespin などがあります。特に Platespin Forge というハードウェアと一体化した製品(アプライアンス製品)は、通信さえ設定できてしまえば、遠隔地のバックアップセンターに災害対策拠点が作れるため、非常に人気が高いようです。また、通信経路を自動的に適切に配置するための「ネットワーク仮想化」という技術も注目されています。
ただし、仮想化システムを適切に分散配置するには、まだ「自動化」を完全にする技術で定評があるものが少ないのが実情です。
例えば「クラスタリング(複数の機器をまとめて1台のシステムに見せかける技術)」「フェイルオーバー(故障した機器を自動的に切り替える)」とか「ロードバランシング(付加分散)」といった技術があります。これは機器が壊れたり、高い負荷で応答が遅くなった場合に自動的に他の資源に割り当てる機能として、大型のシステムでは普通に利用されている技術なのですが、ロードバランシングを除いて、あまり進化が進んでいません(というより、一番ホットな話題だということです)
これは、インターネットという、「あまり信頼性のない」緩やかな通信経路を使って「データの100%の信頼性」を確保することが難しいことにもよります。
雪熱冷房、勝手に北海道、空知にデータセンターを誘致するプロジェクト
2012年10月18日
Google のデータセンターが公開されました。
Google のデータセンターが公開されました。
http://www.google.com/about/datacenters/gallery/#/
もちろん丸秘の部分は公開されていないのでしょうが、綺麗に色分けされた配線、水冷パイプ、ポンプ施設や非常用電源など、情報産業が一つの「設備産業」となっていることが良くわかります。
北米ののんびりとした田園風景にあるこの施設は石狩川流域の風景にも似ています。
People を見ると、決してITエンジニアだけの世界じゃない、装置全体をメンテナンスするためにさまざまな人々が働く場所であるということがよくわかります。
石狩川流域にデータセンターを誘致する勝手なプロジェクト
http://www.google.com/about/datacenters/gallery/#/
もちろん丸秘の部分は公開されていないのでしょうが、綺麗に色分けされた配線、水冷パイプ、ポンプ施設や非常用電源など、情報産業が一つの「設備産業」となっていることが良くわかります。
北米ののんびりとした田園風景にあるこの施設は石狩川流域の風景にも似ています。
People を見ると、決してITエンジニアだけの世界じゃない、装置全体をメンテナンスするためにさまざまな人々が働く場所であるということがよくわかります。
石狩川流域にデータセンターを誘致する勝手なプロジェクト
2012年09月17日
記事コンテナDCが抱える問題を考えてみた。
イベント会場に現れたコンテナトレーラー、実は中身が全てコンピュータ。移動ができて、災害地などでの情報発信にも利用でき、空調や電源も全て内蔵。設置場所を選ばず、水と電気と通信ができる場所であれば、建物も不要で野原でも運用ができる。建物のように長い償却期間を考えなくてもよい。
コンテナ型のデータセンターはこんなメリットがありますが、反面、問題もいくつかあります。
1) 道路交通法の問題
まず、コンテナには二種類の規格があります。ISO規格とJIS規格です。
一般的に「コンテナ」と言えばISO規格で、国際物流では陸送>海上輸送>陸送が一体化できるのでメリットが大きいのですが、日本の道路交通法では余りにも大きく重過ぎため、通路が限定されます。
一方JIS規格のコンテナであれば、文字通り「戸口から戸口へ」が実現できるサイズなで、JR貨物でも扱えますし、通常のコンテナ専用トラックで運んでも問題ありません。ただし容積が狭い点が指摘できます。
しかし、コンテナ型サーバを開発、販売しているのは Oracle(SUN) やHPと言った海外企業で、当然ISO規格です。このようなコンテナ型サーバーを日本の交通規制の中で移動、設置するにはいろいろと問題があります。
こういった制限の中で特許を申請したIIJのコンテナレイアウトはなかなか凄いと思います。
2)効率の問題
コンテナ型DCはその能力が100%発揮する場合の状況を想定して、冷却、電源などを組み込んでいます。ですから稼働率50%であれば当然、その補器類は100%の効率を出し切れません。
当然コンピュータ設備は3~5年で償却しますから、その間に100%の稼働率が実現できなければ、補器類を動かすためのエネルギー、コストの無駄となります。
稼動当初から高い稼働率を予測できなければ、高価な買い物になってしまう恐れがあります。
3) 固定資産
日本では、「水道と電気をつないだ」時点でどんなあばら屋でも「固定資産」とみなされます。そのためIT特区などという発想も出てきますが、所詮、コンテナ型データセンターは「サーカスの巡業」なのです。運用担当者も事業者も「来ては去る」わけで、地元としては地代の賃料以外のメリットがありません。もっとも最近は法改正も行われたようで、人の出入りがなければ「単なる設置物」として認められるようになったようです。
ただし、その場合、事業者がホスティングするには向いていますが、ユーザの設備を預かる「ハウジング」には向いていません。
中部空知地区をシリコンバレー化する勝手なプロジェクト
コンテナ型のデータセンターはこんなメリットがありますが、反面、問題もいくつかあります。
1) 道路交通法の問題
まず、コンテナには二種類の規格があります。ISO規格とJIS規格です。
一般的に「コンテナ」と言えばISO規格で、国際物流では陸送>海上輸送>陸送が一体化できるのでメリットが大きいのですが、日本の道路交通法では余りにも大きく重過ぎため、通路が限定されます。
一方JIS規格のコンテナであれば、文字通り「戸口から戸口へ」が実現できるサイズなで、JR貨物でも扱えますし、通常のコンテナ専用トラックで運んでも問題ありません。ただし容積が狭い点が指摘できます。
しかし、コンテナ型サーバを開発、販売しているのは Oracle(SUN) やHPと言った海外企業で、当然ISO規格です。このようなコンテナ型サーバーを日本の交通規制の中で移動、設置するにはいろいろと問題があります。
こういった制限の中で特許を申請したIIJのコンテナレイアウトはなかなか凄いと思います。
2)効率の問題
コンテナ型DCはその能力が100%発揮する場合の状況を想定して、冷却、電源などを組み込んでいます。ですから稼働率50%であれば当然、その補器類は100%の効率を出し切れません。
当然コンピュータ設備は3~5年で償却しますから、その間に100%の稼働率が実現できなければ、補器類を動かすためのエネルギー、コストの無駄となります。
稼動当初から高い稼働率を予測できなければ、高価な買い物になってしまう恐れがあります。
3) 固定資産
日本では、「水道と電気をつないだ」時点でどんなあばら屋でも「固定資産」とみなされます。そのためIT特区などという発想も出てきますが、所詮、コンテナ型データセンターは「サーカスの巡業」なのです。運用担当者も事業者も「来ては去る」わけで、地元としては地代の賃料以外のメリットがありません。もっとも最近は法改正も行われたようで、人の出入りがなければ「単なる設置物」として認められるようになったようです。
ただし、その場合、事業者がホスティングするには向いていますが、ユーザの設備を預かる「ハウジング」には向いていません。
中部空知地区をシリコンバレー化する勝手なプロジェクト
2012年09月16日
建物の償却期間は30年、でもコンピュータの償却期間は5年
建物の償却期間は30年、でもコンピュータの償却期間は5年
この問題を解決する一つの方法が「コンテナ型」データセンターです。
しかし、日本の法律では「コンテナ型」DCが実現できる法整備は整っていません。
この話はまた別に考えます。
建物の償却期間は30年、でもコンピュータの償却期間は5年
その現実解を考えるとデータセンターを初めから「保冷倉庫」として作ることなのかなと思います。
「保冷倉庫」であればそれなりの設備があるわけで、冷却に必要なインフラも整った状態でコンピューターのシステムインフラも導入することが出来ます。
実際、「倉庫」として設計された建物がDCとして再利用するケースは多くありますがDC専用設計の建物は、簡単に他の目的に転用できません。
「1Fは農産物の倉庫、2Fはデータセンター」
であれば、DCとしての機能が十分果たせないのなら、保冷倉庫として運用すればいいし、DCとしての業務が増えれば1Fの「倉庫」の役割をDC運用に振り向けてもいいわけです。
少なくとも、日本ではDCという概念はまだ20年くらいしか歴史がありません。そもそも通信機器とかPCをネットワークにつなげるという技術自体がわずか20年しか歴史が無いのです。これはLAN(構内ネットワーク)の黎明期から従事してきた私の意見に過ぎませんが、それだけ栄枯盛衰が激しいのが世のIT産業の実態です。
その中で30年かけて償却する施設を作るという発想で考えると「冷熱」を使った、「食料倉庫」の中でコンピューター設備を預かるという発想もあっていいのかなと思うわけですね。
何しろ、ニンゲンはコンピューターが無くても食料備蓄があれば「何とかなる」のがクロマニヨン人以来の人類の創世記からの歴史です。この基本技術者がずらりとそろっているのが中部空知の強みです。
食料の冷蔵備蓄倉庫として基本設計をして、内装の一部をデータセンターとすれば、建物の償却期間30年を十分満たす建築物として利用できます。そもそも倉庫は室内の高さがあるので、床冷却、天井放熱といった構造で内装転換すれば作りやすい。
初めからDCとして設計するとDC以外の目的で利用することが出来ないわけで、事業者の栄枯盛衰を考えると「長い目」で見て、「食料備蓄倉庫」をデータセンターとして利用したほうが、後々の再利用にも有効だと思います。
石狩川流域をIT基地化する勝手なプロジェクト
この問題を解決する一つの方法が「コンテナ型」データセンターです。
しかし、日本の法律では「コンテナ型」DCが実現できる法整備は整っていません。
この話はまた別に考えます。
建物の償却期間は30年、でもコンピュータの償却期間は5年
その現実解を考えるとデータセンターを初めから「保冷倉庫」として作ることなのかなと思います。
「保冷倉庫」であればそれなりの設備があるわけで、冷却に必要なインフラも整った状態でコンピューターのシステムインフラも導入することが出来ます。
実際、「倉庫」として設計された建物がDCとして再利用するケースは多くありますがDC専用設計の建物は、簡単に他の目的に転用できません。
「1Fは農産物の倉庫、2Fはデータセンター」
であれば、DCとしての機能が十分果たせないのなら、保冷倉庫として運用すればいいし、DCとしての業務が増えれば1Fの「倉庫」の役割をDC運用に振り向けてもいいわけです。
少なくとも、日本ではDCという概念はまだ20年くらいしか歴史がありません。そもそも通信機器とかPCをネットワークにつなげるという技術自体がわずか20年しか歴史が無いのです。これはLAN(構内ネットワーク)の黎明期から従事してきた私の意見に過ぎませんが、それだけ栄枯盛衰が激しいのが世のIT産業の実態です。
その中で30年かけて償却する施設を作るという発想で考えると「冷熱」を使った、「食料倉庫」の中でコンピューター設備を預かるという発想もあっていいのかなと思うわけですね。
何しろ、ニンゲンはコンピューターが無くても食料備蓄があれば「何とかなる」のがクロマニヨン人以来の人類の創世記からの歴史です。この基本技術者がずらりとそろっているのが中部空知の強みです。
食料の冷蔵備蓄倉庫として基本設計をして、内装の一部をデータセンターとすれば、建物の償却期間30年を十分満たす建築物として利用できます。そもそも倉庫は室内の高さがあるので、床冷却、天井放熱といった構造で内装転換すれば作りやすい。
初めからDCとして設計するとDC以外の目的で利用することが出来ないわけで、事業者の栄枯盛衰を考えると「長い目」で見て、「食料備蓄倉庫」をデータセンターとして利用したほうが、後々の再利用にも有効だと思います。
石狩川流域をIT基地化する勝手なプロジェクト
2012年08月15日
ホットアイル、チルドアイル
データセンターでは「ホットアイル」「コールド(チルド)アイル」という言葉がここ数年使われるようになりました。 iLe 自体は英語の語尾なので「暖かい部分」「冷えた部分」とでも翻訳すればよいのでしょうか。
※ iLandcenter は「真ん中り」でナカのシマではないンですね。
80年代から90年代にかけて作られたデータセンターにはこういう概念がありませんでした。「とにかくコンピュータのある部屋は冷やす」が基本コンセプトです。
しかし、この数年注目されているのが、ホットアイル、チルド(コールド)アイルです。一昔前のデータセンターでは床冷却し、冷気を天井に逃がす方法も使われていました。
今のコンピュータシステムは「前面吸気背面排気」が基本的な作りです。正面パネルの隙間から冷たい空気を吸気して、内部に5~8個のファンがあり後部の電源ユニットなどから排気します。コンスーマ向けACアダプタで電源を供給する機器ではこのような利用条件ほ考慮していないので、熱で壊れることがありますが、数千円プラスした電源内蔵の金属筐体の通信機器は、筐体からラックを通して廃熱されたり、後部に排気ファンがあるので問題はあまり起こらないようです。
例えば正面から20℃前後で吸気された空気は、CPUボード周辺の60℃から100℃前後の熱をファンで冷やして、後部から40℃前後で排気されます。コンピュータ本体がラックを通して冷却されるため、排気が40℃以上になることは滅多にありません。
以外と金属ラックの吸熱は大きなようです。ラックや筐体そのものの冷却能力も侮れません。逆にラックそのものが冷却できるのであれば、チルドアイルはそれほど低温である必要はないのかもしれません。
ただし、空調の故障などで正面からの吸気が40℃以上になると、どう考えても40℃の熱で氷が作れないように、廃熱そのものは60℃以上になります。ラックも触れないくらい熱くなります。
そうなると、確実にコンピュータは誤作動します。
ということで、夏場、アイランドセンターの代表は外気が35℃を超えると仕事を諦めて、公園の木陰に非難します。普通の省電力PCやノートパソコンでも排気温度やパームレストは40℃近くになります。マザーボード周辺温度センサーは90℃程度になります。コンピュータの排気温度が35℃以上であれば、誤動作はしなくても、HDDなどの駆動部品の消耗が激しくなります。
以外なのは、コールドアイルから20℃の吸気を行って40℃近い排気があっても、ホットアイルとの熱差は数度しかないことです。コールドアイルから19℃の吸気を行ってもホットアイルでは22℃程度です。
これはコールドアイルからの冷機がラックや機器の隙間から漏れて、コールドアイルに流れてしまうこと、ラック全体が冷却能力を持つたことが原因だと思います。従って、データセンターの冷房は「いかにホットアイルにコールドアイルの冷気を流さないか」と「ラックの熱をコールドアイルに戻さないこと」がポイントになります。
ハウジングサービス(顧客の機器預かり)の場合、全てのスペースが埋まるわけではないので、その隙間から冷気がホットアイルに流れます。そのためブランクパネルと呼ばれるメクラ版を張ったり、空きラックから冷気がホットアイルに無駄に流れないように、シールドを施したり、チルドアイルへの出入りを制限するなどの方法が必要です。特に規格外の機器を預かると、冷気漏れがありますから、しっかり零機盛れ対策を話し合う必要がありそうです。
逆に、北海道でデータセンターを誘致する場合、注意すべきは「冷えすぎ」です。
日本の10大都市で一番ヒートアイランド化が進んでいる札幌市内で最低気温が氷点下10度ということは70Km離れた Surachipt 辺りでは氷点下20℃近くにまで下がります。確かにこの気温ではスノーダストは美しいのですが、この外気をそのまま導入すると、冷気で結露したり、水冷システムは氷結したりするため、あまり好ましいものではありません。
俗にストーブの上の「薬缶も凍る」季節です。
ホットアイルの暖気を床下に流すなどの保温が必要でしょう。
石狩川流域をIT産業で活性化する勝手なプロジェクト
※ iLandcenter は「真ん中り」でナカのシマではないンですね。
80年代から90年代にかけて作られたデータセンターにはこういう概念がありませんでした。「とにかくコンピュータのある部屋は冷やす」が基本コンセプトです。
しかし、この数年注目されているのが、ホットアイル、チルド(コールド)アイルです。一昔前のデータセンターでは床冷却し、冷気を天井に逃がす方法も使われていました。
今のコンピュータシステムは「前面吸気背面排気」が基本的な作りです。正面パネルの隙間から冷たい空気を吸気して、内部に5~8個のファンがあり後部の電源ユニットなどから排気します。コンスーマ向けACアダプタで電源を供給する機器ではこのような利用条件ほ考慮していないので、熱で壊れることがありますが、数千円プラスした電源内蔵の金属筐体の通信機器は、筐体からラックを通して廃熱されたり、後部に排気ファンがあるので問題はあまり起こらないようです。
例えば正面から20℃前後で吸気された空気は、CPUボード周辺の60℃から100℃前後の熱をファンで冷やして、後部から40℃前後で排気されます。コンピュータ本体がラックを通して冷却されるため、排気が40℃以上になることは滅多にありません。
以外と金属ラックの吸熱は大きなようです。ラックや筐体そのものの冷却能力も侮れません。逆にラックそのものが冷却できるのであれば、チルドアイルはそれほど低温である必要はないのかもしれません。
ただし、空調の故障などで正面からの吸気が40℃以上になると、どう考えても40℃の熱で氷が作れないように、廃熱そのものは60℃以上になります。ラックも触れないくらい熱くなります。
そうなると、確実にコンピュータは誤作動します。
ということで、夏場、アイランドセンターの代表は外気が35℃を超えると仕事を諦めて、公園の木陰に非難します。普通の省電力PCやノートパソコンでも排気温度やパームレストは40℃近くになります。マザーボード周辺温度センサーは90℃程度になります。コンピュータの排気温度が35℃以上であれば、誤動作はしなくても、HDDなどの駆動部品の消耗が激しくなります。
以外なのは、コールドアイルから20℃の吸気を行って40℃近い排気があっても、ホットアイルとの熱差は数度しかないことです。コールドアイルから19℃の吸気を行ってもホットアイルでは22℃程度です。
これはコールドアイルからの冷機がラックや機器の隙間から漏れて、コールドアイルに流れてしまうこと、ラック全体が冷却能力を持つたことが原因だと思います。従って、データセンターの冷房は「いかにホットアイルにコールドアイルの冷気を流さないか」と「ラックの熱をコールドアイルに戻さないこと」がポイントになります。
ハウジングサービス(顧客の機器預かり)の場合、全てのスペースが埋まるわけではないので、その隙間から冷気がホットアイルに流れます。そのためブランクパネルと呼ばれるメクラ版を張ったり、空きラックから冷気がホットアイルに無駄に流れないように、シールドを施したり、チルドアイルへの出入りを制限するなどの方法が必要です。特に規格外の機器を預かると、冷気漏れがありますから、しっかり零機盛れ対策を話し合う必要がありそうです。
逆に、北海道でデータセンターを誘致する場合、注意すべきは「冷えすぎ」です。
日本の10大都市で一番ヒートアイランド化が進んでいる札幌市内で最低気温が氷点下10度ということは70Km離れた Surachipt 辺りでは氷点下20℃近くにまで下がります。確かにこの気温ではスノーダストは美しいのですが、この外気をそのまま導入すると、冷気で結露したり、水冷システムは氷結したりするため、あまり好ましいものではありません。
俗にストーブの上の「薬缶も凍る」季節です。
ホットアイルの暖気を床下に流すなどの保温が必要でしょう。
石狩川流域をIT産業で活性化する勝手なプロジェクト
2012年05月17日
どうやって遠隔地のサーバを管理するのか:ハウジングサービスの実態
コンピュータは目の前にあるもの
と考えている人には中々遠隔地のコンピュータを管理するという方法は理解しがたいものがあります。一般的なハウジングサービスのデータセンターで、お客様はどのようにシステム管理をしているのでしょうか。
1) OS が持つリモート管理
Windows 系の Professional シリーズ以上にはリモートデスクトップ(RDP)という機能があり、通常、管理者はこの機能を通じて、ユーザやサービスの変更を行います。最近注目されている「シン・クライアント」もこのひとつです。
Linux/Unix 系では SSH 端末ソフトウェア(テキスト端末、GUI-X端末)を使います。
マウスやキーボードの操作も不自然さがなく非常に使いやすい機能です。
ただしオペレーティングシステムが動作しない場合は全く使えません。
また、ネットワークの変更などは行えません。接続が切れます。
2) ハードウェアにオプション設定されているリモート管理機能
HPでは iLO, DELL では RDAC などの名称でオプション、あるいは標準装備されている機能があります。このパーツには通常のネットワークとは異なるネットワークポートを接続し、いわば「裏から」コンピュータ本体の操作を行います。
たいていは遠隔地からブラウザで操作し、GUIでの操作もできます。手元のCDなどの装置を使って「遠くの装置」にシステムをインストールする機能などもあります。
もっとも有効なのは、ハードウェアの温度や故障の履歴、シリアル番号や使っているメモリなどをチェックできる機能があり、発注書を見なくても、メモリの秋スロットがいくつあるかとか、システムの電源を切ったり、再起動もできることです。ただし、故障のログなどを書き出すには「物理的なメディア - USB メモリやFD」をつなげなければならないため、機能が限定されます。
ただし、通信を使うため、非常に動作が遅く、マウスが飛んだり、キーボードがチャタリング( a を押したのに aaaaaa と入力される)や ALT キー(altanative - 画面切り替えキー)などの問題があるため、ほとんどの操作は 1) が有利です。私も使ったことがありますが、怖くて実際に現場でCDの交換や初期操作を「画面を見ながら」現場のCEさんにお願いしたことがあります。
ほとんどの場合、お客様は自社内で設定を済ませ、出荷、設置した後、2) で現場の通信を設定できたら 1) の機能で操作します。
3) デジタル KVM スイッチ
簡単に言うと「PCの切り替えスイッチ」です。よくPC販売店にある「4台のPCを一つのマウスとキーボードと画面で使える」という機器の大型のデジタル通信機器です。一般にPC販売店で売っているものは「アナログ」式です。アナログ式の場合は距離が限定されますがデジタルKVMであれば遠距離でキーボード、マウスの操作が行えます。
これが大規模なシステムになると1台で数十台のコンピュータをつなぐことができ、やはり 2) のケースと同じくネットワークポートがあり「裏のネットワーク」から接続管理ができます。もし 2) の機能が正しく設定できていない場合に緊急で利用できます。これがデジタル式です。
しかし機器の強制シャットダウンには応じていないとか、マウスケーブルなどが壊れていたら使えないなどの問題もあります。
--
ほとんど90%以上の操作は 1) を使いますがシステムの状態を調べたり、リモートから再起動するには 2) の方法が確実です。ただし 2) の方法は高額なライセンス料が発生する場合があるため、安価なサーバーを購入して実装しないお客様も多くいます。
3) はお客様が使うケースより、大規模事業者が沢山の自社の機器を一箇所で操作するためにあるものと考えたほうがいいようです。
4) 死活管理
ping や snmp という管理通信を使って対象のコンピュータ機器や接続装置が正しく動作しているかどうかを装置でモニタします。
一般的に設定が面倒だったり、分析用ソフトウェアが高価だったり、またデータセンター事業者がサービスとして実施する場合もありますが、顧客は他社が自社機器を監視することは好みません。snmp を使った場合、機器が「しきい値(スレショルド)」を超えるとアラートを出しますが、正しく管理していないと無視されるケースが多いようで、本当に「壊れた」時に初めて気がつくことがおおいのも事実です。管理ツールは見ている限りどこでもコストに見合った成果は出さないものです。
事業者側が行う死活管理も「通信できない」事実を顧客に伝えるだけで、対策はお客様が自分で行う必要があります。
--
リモートで出来ないこと
1) 目視確認
機器の状態が正常に動いているかどうかは目視確認が必要です。異音、異臭なども機器を見ないとわかりません。
2) メディア交換
遠隔地からテープなどの交換は行えません。
データセンター事業者はオプションとしてサービスを提供する場合がありますが、顧客側は当然取り外したメディアの管理体制を確認してくるでしょう。
また、バックアップが正しく動作しているかの確認は顧客側の作業です。また、自動的にテープを交換するテープライブラリ(メディアチェンジャ)がありますが、故障が多く、不具合の原因がわかりにくいため、外部の事業者が請け負うべきものではありません。
テープ交換は、セキュリティ上の責任が発生するため、データセンターで管理すべきものであるとは、私は考えていません。
3) 通信機器、ケーブルの損傷
通信機器には「管理機能」を持ったものがありますが、ケーブル自体が損傷を受けると管理機能も働きませんし、サービスも稼動しません。たいてい、通信装置までは事業者の領分ですが、その先の集線装置(HUB)などは顧客の財産ですから、ケーブルのどこが損傷しているかは顧客が自分で確認する必要があります。
4) ユーザの管理
ここまで要求してくるお客様も「たまに」います。いわば「運用丸投げ」です。否とはいえませんが、運用上のリスクの責任分担はしっかり契約しておくべきです。当然、センターのエンジニアが顧客の「管理パスワード」を知っているという点で問題が多いでしょう。
5) 故障機器の修理立会い。
このようなトラブル、あるいは運用上の問題を解決するサービス力がハウジングするデータセンターには求められます。もっともほとんどはリモート監視で十分です。
ハウジングサービスは「お客様の機器を預かる」のが仕事であるため、通常の契約では上のような障害が出てもお客様にご報告したりすることはありません。たいていの場合はサービスレベル契約(SLA)によって決めますが、まず、DC側の担当者がお客様の装置に触れたり操作したりすることはSLAに含まれません。
もちろん「別途応談」で上のような障害をチェックする場合もあります。
石狩川流域をIT拠点に! 勝手なプロジェクト
と考えている人には中々遠隔地のコンピュータを管理するという方法は理解しがたいものがあります。一般的なハウジングサービスのデータセンターで、お客様はどのようにシステム管理をしているのでしょうか。
1) OS が持つリモート管理
Windows 系の Professional シリーズ以上にはリモートデスクトップ(RDP)という機能があり、通常、管理者はこの機能を通じて、ユーザやサービスの変更を行います。最近注目されている「シン・クライアント」もこのひとつです。
Linux/Unix 系では SSH 端末ソフトウェア(テキスト端末、GUI-X端末)を使います。
マウスやキーボードの操作も不自然さがなく非常に使いやすい機能です。
ただしオペレーティングシステムが動作しない場合は全く使えません。
また、ネットワークの変更などは行えません。接続が切れます。
2) ハードウェアにオプション設定されているリモート管理機能
HPでは iLO, DELL では RDAC などの名称でオプション、あるいは標準装備されている機能があります。このパーツには通常のネットワークとは異なるネットワークポートを接続し、いわば「裏から」コンピュータ本体の操作を行います。
たいていは遠隔地からブラウザで操作し、GUIでの操作もできます。手元のCDなどの装置を使って「遠くの装置」にシステムをインストールする機能などもあります。
もっとも有効なのは、ハードウェアの温度や故障の履歴、シリアル番号や使っているメモリなどをチェックできる機能があり、発注書を見なくても、メモリの秋スロットがいくつあるかとか、システムの電源を切ったり、再起動もできることです。ただし、故障のログなどを書き出すには「物理的なメディア - USB メモリやFD」をつなげなければならないため、機能が限定されます。
ただし、通信を使うため、非常に動作が遅く、マウスが飛んだり、キーボードがチャタリング( a を押したのに aaaaaa と入力される)や ALT キー(altanative - 画面切り替えキー)などの問題があるため、ほとんどの操作は 1) が有利です。私も使ったことがありますが、怖くて実際に現場でCDの交換や初期操作を「画面を見ながら」現場のCEさんにお願いしたことがあります。
ほとんどの場合、お客様は自社内で設定を済ませ、出荷、設置した後、2) で現場の通信を設定できたら 1) の機能で操作します。
3) デジタル KVM スイッチ
簡単に言うと「PCの切り替えスイッチ」です。よくPC販売店にある「4台のPCを一つのマウスとキーボードと画面で使える」という機器の大型のデジタル通信機器です。一般にPC販売店で売っているものは「アナログ」式です。アナログ式の場合は距離が限定されますがデジタルKVMであれば遠距離でキーボード、マウスの操作が行えます。
これが大規模なシステムになると1台で数十台のコンピュータをつなぐことができ、やはり 2) のケースと同じくネットワークポートがあり「裏のネットワーク」から接続管理ができます。もし 2) の機能が正しく設定できていない場合に緊急で利用できます。これがデジタル式です。
しかし機器の強制シャットダウンには応じていないとか、マウスケーブルなどが壊れていたら使えないなどの問題もあります。
--
ほとんど90%以上の操作は 1) を使いますがシステムの状態を調べたり、リモートから再起動するには 2) の方法が確実です。ただし 2) の方法は高額なライセンス料が発生する場合があるため、安価なサーバーを購入して実装しないお客様も多くいます。
3) はお客様が使うケースより、大規模事業者が沢山の自社の機器を一箇所で操作するためにあるものと考えたほうがいいようです。
4) 死活管理
ping や snmp という管理通信を使って対象のコンピュータ機器や接続装置が正しく動作しているかどうかを装置でモニタします。
一般的に設定が面倒だったり、分析用ソフトウェアが高価だったり、またデータセンター事業者がサービスとして実施する場合もありますが、顧客は他社が自社機器を監視することは好みません。snmp を使った場合、機器が「しきい値(スレショルド)」を超えるとアラートを出しますが、正しく管理していないと無視されるケースが多いようで、本当に「壊れた」時に初めて気がつくことがおおいのも事実です。管理ツールは見ている限りどこでもコストに見合った成果は出さないものです。
事業者側が行う死活管理も「通信できない」事実を顧客に伝えるだけで、対策はお客様が自分で行う必要があります。
--
リモートで出来ないこと
1) 目視確認
機器の状態が正常に動いているかどうかは目視確認が必要です。異音、異臭なども機器を見ないとわかりません。
2) メディア交換
遠隔地からテープなどの交換は行えません。
データセンター事業者はオプションとしてサービスを提供する場合がありますが、顧客側は当然取り外したメディアの管理体制を確認してくるでしょう。
また、バックアップが正しく動作しているかの確認は顧客側の作業です。また、自動的にテープを交換するテープライブラリ(メディアチェンジャ)がありますが、故障が多く、不具合の原因がわかりにくいため、外部の事業者が請け負うべきものではありません。
テープ交換は、セキュリティ上の責任が発生するため、データセンターで管理すべきものであるとは、私は考えていません。
3) 通信機器、ケーブルの損傷
通信機器には「管理機能」を持ったものがありますが、ケーブル自体が損傷を受けると管理機能も働きませんし、サービスも稼動しません。たいてい、通信装置までは事業者の領分ですが、その先の集線装置(HUB)などは顧客の財産ですから、ケーブルのどこが損傷しているかは顧客が自分で確認する必要があります。
4) ユーザの管理
ここまで要求してくるお客様も「たまに」います。いわば「運用丸投げ」です。否とはいえませんが、運用上のリスクの責任分担はしっかり契約しておくべきです。当然、センターのエンジニアが顧客の「管理パスワード」を知っているという点で問題が多いでしょう。
5) 故障機器の修理立会い。
このようなトラブル、あるいは運用上の問題を解決するサービス力がハウジングするデータセンターには求められます。もっともほとんどはリモート監視で十分です。
ハウジングサービスは「お客様の機器を預かる」のが仕事であるため、通常の契約では上のような障害が出てもお客様にご報告したりすることはありません。たいていの場合はサービスレベル契約(SLA)によって決めますが、まず、DC側の担当者がお客様の装置に触れたり操作したりすることはSLAに含まれません。
もちろん「別途応談」で上のような障害をチェックする場合もあります。
石狩川流域をIT拠点に! 勝手なプロジェクト
2012年05月16日
iSCSIって何だ
コンピュータ本体と記憶装置(HDDやテープバックアップ)とを接続する方法としてこの数年iSCSIが注目されはじめました。私も1年ほど利用価値を検討してからお客様に積極的に導入をお勧めしています。
DAS方式
従来の方法です。ダイレクト・アタッチ・ストレージと呼びます。SCSIだけではなく、通常のコンピュータの内部接続もDAS方式です。
コンピュータとディスクやテープ装置との間は SCSI と呼ばれる規格で接続されています。
この方式はパラレル(平行)転送方式で SCSI Ultra320 規格の場合は 320Mbps の速度でコンピュータと記憶装置の間を直接(Direct Attach)接続します。通常DASストレージと呼ばれます。今のサーバ用HDDは SAS と呼ばれる SCSI をシリアル化した規格が主流です。やはり 300Mbps 程度の転送速度ですが、ディスクを並列につなげられるため、高速に処理ができるようになりました。この種類のHDDは一般では非常に入手が困難です。
また、一般のPCで使われる規格は SATA(シリアルATA)と呼ばれる規格のもので、家電量販店でテレビ録画機などにも使われています。厳しい読み書きが求められないため非常に安価です。
しかし、まだテープ装置などは従来の SCSI 規格が主流です。
この SCSI 規格にはいくつかの欠点があります。
1) 距離は数メートル以内
2) SCSI バスアダプタ(カード)が必要
3) 接続した機器が故障したときはCPU本体ごと遮断して修理
4) ケーブルがごつい
一度、お客様から古いテープ装置をもらってテストに利用しようと思ったことがありましたが、 SCSI バスアダプタとかケーブルなどが高価で苦労したことがあります。タダより高いものはないと思い知らされました。
SAN方式
この SCSI 通信方式を通常のディスクなどの記憶装置に応用したものが iSCSI です。 IP-SAN (IP Strage Area Network とも呼ばれます。これ以前は FC-SAN(光ファイバーのストレージネットワーク)が主流でした。光ファイバーの FC-SAN はメーカーごとに互換性が少ないため、ベンダーロック(囲い込み)が行われ、手に届きにくいものでした。また、伝送距離やコストの関連で今でも大規模で高度なサービスを利用するデータセンターで利用されています。
iSCSI はコンピュータに使う IP アドレスと同じように各記憶装置を扱うことができるため、この数年かなり実用化されてきました。
iSCSI の特徴は
1) 従来の HUB、 ケーブルが使える
2) 一般的な IP の知識で設定できる
3) 安価でベンダーを選ばない
4) IP が使えれば、世界中距離を選ばない
ただし
5) 機器間の通信速度はネットワークの速度に制限される
6) Linux では問題が少ないが Windows では問題が多い(個人的な意見)
という欠点があります。 FC-SAN は 3 - 6Gbps に対して通常のイーサネットでは 1Gbps です。(10Gbpsの製品もありますが普及していません)ただし、コンピューター数台と記憶装置をつなぐだけであればハードディスクの速度は一般に遅いため、 1Gbps で十分な速度が出ます。
ただし、DCとオフィスをつなぐ回線が一般的に 100Mbps 程度なのでここがボトルネックになります。
--
データセンターでの利用
例えば、サーバー本体とDASディスク装置はお客様先のコンピュータールームにあるとします。バックアップに遠方の iSCSI ディスクを使います。たとえ本社のコンピュータールームに障害があってデータを喪失しても、遠くのDCのデータから復旧することができます。毎晩差分のみを転送する方法であれば負荷は決して多くありません、それほど多くの時間を必要としません。受け入れるデータセンター側でも、機器の設置と IP の設定さえすれば、あとはお客様が自由に利用するだけですので、DCの運用側には深い知識は必要ありません。地方のデータセンターで顧客のシステムを預かる目的としては有望なサービスと考えています。
iSCSI を使ったハードディスク装置はこの2~3年で急激にラインアップが増えてきました。
逆に、コンピュータの大部分はデータセンターに置いて、オフィスの節電、スペースの節約を行います。センターのコンピュータから iSCSI でオフィスの装置にバックアップを行います。
ただ、あまりテープ装置自体が iSCSI 対応の製品が少なく、現在、大手では DELL のPowerVault TL4000
http://www.dell.com/jp/business/p/powervault-tl4000/pd#
などの装置がある程度です。
また中小の機器メーカーでも通常の SCSI -> iSCSI のコンバータ、ブリッジを販売しているところがあります。
株式会社昌新 iSCSI <> SCSI コンバータ
http://www.shoshin.co.jp/c/paralan/index.html#
いずれ、iSCSI は標準的なバックアップ装置のインターフェースとして利用されることが期待されます。
こういった装置を使えば、
- 通常のバックアップはセンター内と遠隔地のHDDでバックアップ
- 永久保存用テープはオフィスでバックアップし金庫保管
といった運用も出来ます。
必ずしも永久保管が必要なデータと言えば、入退室のログだとか、操作ログ、変更記録、年次、月次のバックアップなので、これらにピンポイントを合わせれば、1本のテープでもバックアップ量は莫大にはなりません。しかし毎日のフルバックアップには向いていないでしょう。
石狩川流域をIT拠点に! 勝手なプロジェクト
DAS方式
従来の方法です。ダイレクト・アタッチ・ストレージと呼びます。SCSIだけではなく、通常のコンピュータの内部接続もDAS方式です。
コンピュータとディスクやテープ装置との間は SCSI と呼ばれる規格で接続されています。
この方式はパラレル(平行)転送方式で SCSI Ultra320 規格の場合は 320Mbps の速度でコンピュータと記憶装置の間を直接(Direct Attach)接続します。通常DASストレージと呼ばれます。今のサーバ用HDDは SAS と呼ばれる SCSI をシリアル化した規格が主流です。やはり 300Mbps 程度の転送速度ですが、ディスクを並列につなげられるため、高速に処理ができるようになりました。この種類のHDDは一般では非常に入手が困難です。
また、一般のPCで使われる規格は SATA(シリアルATA)と呼ばれる規格のもので、家電量販店でテレビ録画機などにも使われています。厳しい読み書きが求められないため非常に安価です。
しかし、まだテープ装置などは従来の SCSI 規格が主流です。
この SCSI 規格にはいくつかの欠点があります。
1) 距離は数メートル以内
2) SCSI バスアダプタ(カード)が必要
3) 接続した機器が故障したときはCPU本体ごと遮断して修理
4) ケーブルがごつい
一度、お客様から古いテープ装置をもらってテストに利用しようと思ったことがありましたが、 SCSI バスアダプタとかケーブルなどが高価で苦労したことがあります。タダより高いものはないと思い知らされました。
SAN方式
この SCSI 通信方式を通常のディスクなどの記憶装置に応用したものが iSCSI です。 IP-SAN (IP Strage Area Network とも呼ばれます。これ以前は FC-SAN(光ファイバーのストレージネットワーク)が主流でした。光ファイバーの FC-SAN はメーカーごとに互換性が少ないため、ベンダーロック(囲い込み)が行われ、手に届きにくいものでした。また、伝送距離やコストの関連で今でも大規模で高度なサービスを利用するデータセンターで利用されています。
iSCSI はコンピュータに使う IP アドレスと同じように各記憶装置を扱うことができるため、この数年かなり実用化されてきました。
iSCSI の特徴は
1) 従来の HUB、 ケーブルが使える
2) 一般的な IP の知識で設定できる
3) 安価でベンダーを選ばない
4) IP が使えれば、世界中距離を選ばない
ただし
5) 機器間の通信速度はネットワークの速度に制限される
6) Linux では問題が少ないが Windows では問題が多い(個人的な意見)
という欠点があります。 FC-SAN は 3 - 6Gbps に対して通常のイーサネットでは 1Gbps です。(10Gbpsの製品もありますが普及していません)ただし、コンピューター数台と記憶装置をつなぐだけであればハードディスクの速度は一般に遅いため、 1Gbps で十分な速度が出ます。
ただし、DCとオフィスをつなぐ回線が一般的に 100Mbps 程度なのでここがボトルネックになります。
--
データセンターでの利用
例えば、サーバー本体とDASディスク装置はお客様先のコンピュータールームにあるとします。バックアップに遠方の iSCSI ディスクを使います。たとえ本社のコンピュータールームに障害があってデータを喪失しても、遠くのDCのデータから復旧することができます。毎晩差分のみを転送する方法であれば負荷は決して多くありません、それほど多くの時間を必要としません。受け入れるデータセンター側でも、機器の設置と IP の設定さえすれば、あとはお客様が自由に利用するだけですので、DCの運用側には深い知識は必要ありません。地方のデータセンターで顧客のシステムを預かる目的としては有望なサービスと考えています。
iSCSI を使ったハードディスク装置はこの2~3年で急激にラインアップが増えてきました。
逆に、コンピュータの大部分はデータセンターに置いて、オフィスの節電、スペースの節約を行います。センターのコンピュータから iSCSI でオフィスの装置にバックアップを行います。
ただ、あまりテープ装置自体が iSCSI 対応の製品が少なく、現在、大手では DELL のPowerVault TL4000
http://www.dell.com/jp/business/p/powervault-tl4000/pd#
などの装置がある程度です。
また中小の機器メーカーでも通常の SCSI -> iSCSI のコンバータ、ブリッジを販売しているところがあります。
株式会社昌新 iSCSI <> SCSI コンバータ
http://www.shoshin.co.jp/c/paralan/index.html#
いずれ、iSCSI は標準的なバックアップ装置のインターフェースとして利用されることが期待されます。
こういった装置を使えば、
- 通常のバックアップはセンター内と遠隔地のHDDでバックアップ
- 永久保存用テープはオフィスでバックアップし金庫保管
といった運用も出来ます。
必ずしも永久保管が必要なデータと言えば、入退室のログだとか、操作ログ、変更記録、年次、月次のバックアップなので、これらにピンポイントを合わせれば、1本のテープでもバックアップ量は莫大にはなりません。しかし毎日のフルバックアップには向いていないでしょう。
石狩川流域をIT拠点に! 勝手なプロジェクト
2012年05月11日
コンピュータの電源
データセンターの技術、電源について
コンピュータの裏蓋を開けるとこのようなコンピュータの電源があります。裏にはファンと100Vの入力コネクタ。内側には基盤やハードディスクに繋がる直流用コネクタがあります。コネクタの形状はATXの規格に従っているため、サイズさえ合えば互換性があります。ATX規格ではねじ穴の位置さえ規格が決まっているので、ファンなどの交換もできます。
もちろん交換するときは、ネジをはずして、本体を外し、ケーブルのラッチを押しながら抜くという面倒な作業が必要です。
電源ユニットによっては、裏に 110Vと 200V の切り替えスイッチや、電源そのものをオンオフするスイッチがついているものもありますが、普段パソコンショップで購入する国産メーカーのコンピュータは、国内使用が前提なので、電圧切り替えスイッチはついていないことが多いようです。
直流のコネクタは12V のCPU用だったり、 3.3v のファン用、 5V のHDD用などです。
一方データセンターや、コンピュータルームで使う電源装置は、高さやサイズの関係で細長い形状をしています。オプションで電源が2台使えるものが多く、故障したときは、稼動したまま交換できるよう、電源コネクタは抜き差しが自由にできる特殊な形状をしています。コネクタには故障を知らせる通信線などがあります。基本的にメーカー指定で互換性はありません。
電圧はコンピュータの動作に敏感です。
ある工場では、休日の電圧が115Vで「サージ」と呼ばれる現象が発生することがよくありました。工場の機械が動いていないため、電圧が上がります。一方、寒い朝の9時には95V以下に下がって、「ブランクアウト(瞬断)」に近い状態になります。暖房が弱いので、机の下に持ち込んだ電熱器などのスイッチが一斉に入ります。また工場の機械が一斉に稼動するため、工場の電圧監視は重要です。
あるメーカーさんでは、このような施設内の電源を安定化させるため、インバータ方式の蓄電器から事務室フロア全体に電源を供給する場合がありました。電力会社の電源の問題というより、その事業所全体の電源の問題だそうです。これがないと、大型のCAD用プリンタが動作しないということでの対策だったそうです。
--
無停電装置(UPS)
一般に市販されているUPS装置は、サーバー用も含めてインタラクティブ方式が多いようです。この方式は、入力を監視し、電圧が下がったときやサージ電圧を検出すると自動的に無停電装置に切り替わる方式です。交流は東日本では60Hzなので、USPの回路の切り替えが数msec の場合、まずコンピュータの装置が問題を起こすことはありません。普段は充電するか、無稼動状態なので、発熱が少なくバッテリーの持ちが良いという特徴があります。また商用電源が正常な間にバッテリ交換ができるので(火花が散るのでやりたくないのですが)メンテナンス製もよいようです。
大体2年~5年のメーカー保障がついており、私の経験ではサーバーの寿命までバッテリーは無交換だったケースが大部分です。もちろん回路の故障で半年で全交換というケースもありましたが。
一方、一般的なインバーター方式は AC>DC変換を行い蓄電し、DC>ACインバータで再び交流に戻し、コンピューターに接続されます。このAC100Vの電源は、コンピュータ内部の電源装置でDC変換され、マザーボードやハードディスクに供給されます。
安定した電力を供給できる一方で、機器が大型になったり、AC/DC変換を何度も行うため、変換効率が悪い、(70%前後といわれます)常時バッテリーに負荷がかかるためバッテリーの寿命が短いなどの欠点があります。導入したケースがないので、よくわかりませんが、たいてい自動車のバッテリーと同じように2年に一度は交換する必要があると言われます。もちろん丸ごと交換なので、バッテリーシステム全体を二重化する必要があります。
これらの無停電装置や電源のラインには「バリスタ」と呼ばれる回路がついています。よくパソコンショップで見かける「落雷保護機能つきタップ」もバリスタが使われています。落雷などでサージが発生すると、この回路が「壊れて」機器を保護します。幸い嗅いだ経験はないのですが、焼けると凄いにおいがするそうです。火事にはならないのですが、部屋で「何か燃えた?」というにおいだそうです。押入れで使っていてバリスタが焼けて大クレームになったという話はよく聞かされました。においが布団から衣服にまで全部移ってしまったそうです。
--
直接、UPSから直流電源をコンピューターのマザーボードなどに供給できれば良いのですが、一般的なメーカー製のサーバの場合は、電源コネクタの互換性がないため、そのような「技」が使えません。また、UPS自体も交流出力が前提なので、UPSも特注品となります。
したがって「特注品」のサーバーが必要となります。
石狩川流域をIT拠点に! 勝手なプロジェクト
コンピュータの裏蓋を開けるとこのようなコンピュータの電源があります。裏にはファンと100Vの入力コネクタ。内側には基盤やハードディスクに繋がる直流用コネクタがあります。コネクタの形状はATXの規格に従っているため、サイズさえ合えば互換性があります。ATX規格ではねじ穴の位置さえ規格が決まっているので、ファンなどの交換もできます。
もちろん交換するときは、ネジをはずして、本体を外し、ケーブルのラッチを押しながら抜くという面倒な作業が必要です。
電源ユニットによっては、裏に 110Vと 200V の切り替えスイッチや、電源そのものをオンオフするスイッチがついているものもありますが、普段パソコンショップで購入する国産メーカーのコンピュータは、国内使用が前提なので、電圧切り替えスイッチはついていないことが多いようです。
直流のコネクタは12V のCPU用だったり、 3.3v のファン用、 5V のHDD用などです。
一方データセンターや、コンピュータルームで使う電源装置は、高さやサイズの関係で細長い形状をしています。オプションで電源が2台使えるものが多く、故障したときは、稼動したまま交換できるよう、電源コネクタは抜き差しが自由にできる特殊な形状をしています。コネクタには故障を知らせる通信線などがあります。基本的にメーカー指定で互換性はありません。
電圧はコンピュータの動作に敏感です。
ある工場では、休日の電圧が115Vで「サージ」と呼ばれる現象が発生することがよくありました。工場の機械が動いていないため、電圧が上がります。一方、寒い朝の9時には95V以下に下がって、「ブランクアウト(瞬断)」に近い状態になります。暖房が弱いので、机の下に持ち込んだ電熱器などのスイッチが一斉に入ります。また工場の機械が一斉に稼動するため、工場の電圧監視は重要です。
あるメーカーさんでは、このような施設内の電源を安定化させるため、インバータ方式の蓄電器から事務室フロア全体に電源を供給する場合がありました。電力会社の電源の問題というより、その事業所全体の電源の問題だそうです。これがないと、大型のCAD用プリンタが動作しないということでの対策だったそうです。
--
無停電装置(UPS)
一般に市販されているUPS装置は、サーバー用も含めてインタラクティブ方式が多いようです。この方式は、入力を監視し、電圧が下がったときやサージ電圧を検出すると自動的に無停電装置に切り替わる方式です。交流は東日本では60Hzなので、USPの回路の切り替えが数msec の場合、まずコンピュータの装置が問題を起こすことはありません。普段は充電するか、無稼動状態なので、発熱が少なくバッテリーの持ちが良いという特徴があります。また商用電源が正常な間にバッテリ交換ができるので(火花が散るのでやりたくないのですが)メンテナンス製もよいようです。
大体2年~5年のメーカー保障がついており、私の経験ではサーバーの寿命までバッテリーは無交換だったケースが大部分です。もちろん回路の故障で半年で全交換というケースもありましたが。
一方、一般的なインバーター方式は AC>DC変換を行い蓄電し、DC>ACインバータで再び交流に戻し、コンピューターに接続されます。このAC100Vの電源は、コンピュータ内部の電源装置でDC変換され、マザーボードやハードディスクに供給されます。
安定した電力を供給できる一方で、機器が大型になったり、AC/DC変換を何度も行うため、変換効率が悪い、(70%前後といわれます)常時バッテリーに負荷がかかるためバッテリーの寿命が短いなどの欠点があります。導入したケースがないので、よくわかりませんが、たいてい自動車のバッテリーと同じように2年に一度は交換する必要があると言われます。もちろん丸ごと交換なので、バッテリーシステム全体を二重化する必要があります。
これらの無停電装置や電源のラインには「バリスタ」と呼ばれる回路がついています。よくパソコンショップで見かける「落雷保護機能つきタップ」もバリスタが使われています。落雷などでサージが発生すると、この回路が「壊れて」機器を保護します。幸い嗅いだ経験はないのですが、焼けると凄いにおいがするそうです。火事にはならないのですが、部屋で「何か燃えた?」というにおいだそうです。押入れで使っていてバリスタが焼けて大クレームになったという話はよく聞かされました。においが布団から衣服にまで全部移ってしまったそうです。
--
直接、UPSから直流電源をコンピューターのマザーボードなどに供給できれば良いのですが、一般的なメーカー製のサーバの場合は、電源コネクタの互換性がないため、そのような「技」が使えません。また、UPS自体も交流出力が前提なので、UPSも特注品となります。
したがって「特注品」のサーバーが必要となります。
石狩川流域をIT拠点に! 勝手なプロジェクト