2023年12月31日
はじめに
廃校となった小学校の跡地を見て涙が出た。ピンネの山から吹き降ろす強烈な風が雪を低湿地に運び、えぐれた地面から吹き上げる。振り返ると北電砂川発電所と、東洋高圧の古い工場が見えた。
この街の特徴は何だったのだろう。
夕張や富良野のような観光地でもなければ、夕張や浦臼のようにメロンが有名な町でもない。わずかな稲作地はブランドや規模からして、隣の奈井江や深川に負けている。高速道路は通っているが、街を通り抜けるだけで市内にインターチェンジはない。
水と風と人が通り過ぎるまち、surachipt この街で新しい産業を興すことはできないのだろうか。
キーワード
雪冷データセンター、省電力データセンター、低環境負荷データセンター
リンク
勝手に Surachipt Data Stream を創ろう
砂川市役所公式 ウェブサイト Sunagawa City Hokkaido Official Web site
美唄市役所公式ウェブサイト Bibai City Hokkaido Official Web site
奈井江町公式ウェブサイト Naie Town Official Web site
空知工業団地公式ウェブサイト Sorachi Industrial Park Official Web site
美唄自然エネルギー研究会 Bibai Nature Energie Research Association Eneken facebook
※ このサイトは「『勝手』に Surachipt Data Stream を創ろう」です。上記自治体、団体とは何の関係もありません。
※ できるだけ良質な情報を提供することを目指します。表現や内容に不正確な場合はご指摘いただけると幸いです。
2019年03月19日
北海道総合通信網と沖縄クロス・ヘッド、北海道-沖縄間でのディザスタリカバリに関する実証実験を開始
北海道総合通信網と沖縄クロス・ヘッド、北海道-沖縄間でのディザスタリカバリに関する実証実験を開始
https://cloud.watch.impress.co.jp/docs/news/1174855.html
実験では、OCHのデータセンターサービス「OCH POWER」に事業者のプライマリサイトに見立てた仮想化システムを構築し、HOTnetの「HOTnetS.T.E.P 札幌データセンター」において仮想化システムのバックアップを取得。バックアップデータから仮想マシンを起動させる手法を確立する。
https://www.hotnet.co.jp/event_news/up_images/NEWS_RELEASE_20190315.pdf
https://cloud.watch.impress.co.jp/docs/news/1174855.html
実験では、OCHのデータセンターサービス「OCH POWER」に事業者のプライマリサイトに見立てた仮想化システムを構築し、HOTnetの「HOTnetS.T.E.P 札幌データセンター」において仮想化システムのバックアップを取得。バックアップデータから仮想マシンを起動させる手法を確立する。
https://www.hotnet.co.jp/event_news/up_images/NEWS_RELEASE_20190315.pdf
islandcenter at 12:17|Permalink│Comments(0)
2019年01月02日
2018年10月22日
データセンターは海浜地区に作るべきではない。
先日の台風の後、首都圏では停電や電車のトラブルが多く出ました。
台風24号・塩害で鉄道トラブル相次ぐ 潮風が影響
https://mainichi.jp/articles/20181005/k00/00e/040/262000c
鉄道に詳しい方に細かな話は譲りたい所ですが、首都圏の様に過密ダイヤで運行されている地域では、電車は直流電源を使います。沿線設備は短い区間に多数必要なのですが、電車本体に、重たいインバーターを搭載しないため、軽量で安価な電車を多数走らせることが出来ます。ただし、高圧電流を流すことができません。これはスイッチングすると火花が散ったり電圧変換に大きな負担がかかるためです。
一方、交流電化は遠距離、高圧伝送ができるため、沿線設備が少なく、電車は多少重くてコストが高くてもインバーターで交直変換してモーターを回す方が全体のコストが安い、過疎地域の電化に向いていると言われます。
ニコラ・テスラが初めて送電設備を成功させたのも交流は電圧h変換やスイッチングが容易で送電施設が容易に構築できただからです。
自動車のバッテリーはもちろん直流ですが、直流電流は物理的なオンオフをすると火花が散ります。多くの自動車オーナーさんなら経験があるでしょう。バッテリーの端子に白い粉が付きます。これは塩分です。ひどい時は、バッテリーケーブルまで腐食させます。先日も、エアコンのリモコンの電池が腐食して、エアコンが入らなかったという事件(?)が私の身近でありました。直流システムをスイッチングすることは塩害との闘いなのですね。
さてコンピュータそのものはコンセントの交流電源を使いますが、内部の電源ユニットで直流化して基盤やディスク装置に供給されます。そこで空冷冷房の空気の中に塩分が含まれると、塩害により、電源ユニットや結線の接続部に腐食が生じます。
電源を使った強制冷却より自然冷却による冷房を使った、データセンターは沿海地帯にあるのはあまり好ましい事ではありません。
内陸である中部空知地域は塩害とは縁がないロケーションです。一般的に道路に融雪剤を使うこともなく、多くの場合、火力発電所の冷却水の排熱を融雪に使います。
台風24号・塩害で鉄道トラブル相次ぐ 潮風が影響
https://mainichi.jp/articles/20181005/k00/00e/040/262000c
鉄道に詳しい方に細かな話は譲りたい所ですが、首都圏の様に過密ダイヤで運行されている地域では、電車は直流電源を使います。沿線設備は短い区間に多数必要なのですが、電車本体に、重たいインバーターを搭載しないため、軽量で安価な電車を多数走らせることが出来ます。ただし、高圧電流を流すことができません。これはスイッチングすると火花が散ったり電圧変換に大きな負担がかかるためです。
一方、交流電化は遠距離、高圧伝送ができるため、沿線設備が少なく、電車は多少重くてコストが高くてもインバーターで交直変換してモーターを回す方が全体のコストが安い、過疎地域の電化に向いていると言われます。
ニコラ・テスラが初めて送電設備を成功させたのも交流は電圧h変換やスイッチングが容易で送電施設が容易に構築できただからです。
自動車のバッテリーはもちろん直流ですが、直流電流は物理的なオンオフをすると火花が散ります。多くの自動車オーナーさんなら経験があるでしょう。バッテリーの端子に白い粉が付きます。これは塩分です。ひどい時は、バッテリーケーブルまで腐食させます。先日も、エアコンのリモコンの電池が腐食して、エアコンが入らなかったという事件(?)が私の身近でありました。直流システムをスイッチングすることは塩害との闘いなのですね。
さてコンピュータそのものはコンセントの交流電源を使いますが、内部の電源ユニットで直流化して基盤やディスク装置に供給されます。そこで空冷冷房の空気の中に塩分が含まれると、塩害により、電源ユニットや結線の接続部に腐食が生じます。
電源を使った強制冷却より自然冷却による冷房を使った、データセンターは沿海地帯にあるのはあまり好ましい事ではありません。
内陸である中部空知地域は塩害とは縁がないロケーションです。一般的に道路に融雪剤を使うこともなく、多くの場合、火力発電所の冷却水の排熱を融雪に使います。
islandcenter at 16:52|Permalink│Comments(0)
2018年10月14日
停電テストは難しい
停電のテストは難しいものです。
一般的なサーバーシステムはUPS(無停電電源装置)が付いています。新規導入したサーバーとUPSが一対一の場合はUPSが稼働しているかどうか、商用電源のケーブルを抜けば簡単にテストができます。しかし最近はサーバーの高密度化が進み、1台のUPSに数十台のサーバーがぶら下がっているという事も少なくありません。このサーバーの中の一台だけリプレースしUPSをを正常にモニタリングしているかどうかをテストする場合、電源コードを抜けばすべての稼働中のシステムに影響が出てしまいます。
テストは不具合を見つけ出し、修正するために行うため、「うまく動作しない」時にどうすればいいのかの対策が必要になります。そこで「うまく動かない状況」を作り出す必要があるわけですね。そうなると稼働中のシステムにも影響する。
UPSに関わらず、ハードウェアは様々な状況で正常に動作するか、異常系の警告は正しく処理できるか、と言ったテストもしなければなりません。
私も経験があるのですが、ハードウェア異常が正しく検出できるかどうか、テストしてほしいと顧客に頼まれ、ハードウェアの冗長ファンに指を突っ込んで止めてみて、ちゃんとアラームが出たかを確認したことがあります。さすがに顧客さんは血だらけになった私の指先から目を背けて、「頼むからもうわかった、身体を張ったテストはしないでくれ」と懇願されたことがありました。
この様な冗長性のあるハードウェアは、稼働中に交換が可能で、その中にコンピュータ自体の電源ユニットがあります。電源ユニット自体は基本的には単装でも動作しますが、容量の大きなハードウェアや大量のHDDを搭載している場合は二重化が必須の場合もあります。多くの場合、単重電源ユニットでも動作しますが、UPS は商用電源の異常で「壊れることが任務」なので、UPS自体も二重化して、オンラインでUPSを交換できるように基本インフラを設計します。
さて、先日の胆振地震では、北海道の主力発電所の一つである苫厚発電所が被害を受けて、全道ブランクアウトという「想定外」の被害が出ました。
多くのデータセンターでは、商用電源も異なる変電所から給電を受けて二重化していますが、全道ブランクアウトという異常事態に対応しきれなかったいくつかのデータセンターでは、停電対策がうまく機能せずに一部にサービス障害が起こりました。
北海道地震、業種別の被害状況まとめ
https://tech.nikkeibp.co.jp/atcl/nxt/column/18/00432/091900033/
ただ、iDC が被害を受けたとしても、周辺の通信サービスや、iDC への交通手段がない、コールセンターが停止、などの副次的なトラブルがあることで、iDC そのもののシステムに問題がなくても、「サービス全体」に支障が出てしまえば、これも十分なインシデントです。
一般的なサーバーシステムはUPS(無停電電源装置)が付いています。新規導入したサーバーとUPSが一対一の場合はUPSが稼働しているかどうか、商用電源のケーブルを抜けば簡単にテストができます。しかし最近はサーバーの高密度化が進み、1台のUPSに数十台のサーバーがぶら下がっているという事も少なくありません。このサーバーの中の一台だけリプレースしUPSをを正常にモニタリングしているかどうかをテストする場合、電源コードを抜けばすべての稼働中のシステムに影響が出てしまいます。
テストは不具合を見つけ出し、修正するために行うため、「うまく動作しない」時にどうすればいいのかの対策が必要になります。そこで「うまく動かない状況」を作り出す必要があるわけですね。そうなると稼働中のシステムにも影響する。
UPSに関わらず、ハードウェアは様々な状況で正常に動作するか、異常系の警告は正しく処理できるか、と言ったテストもしなければなりません。
私も経験があるのですが、ハードウェア異常が正しく検出できるかどうか、テストしてほしいと顧客に頼まれ、ハードウェアの冗長ファンに指を突っ込んで止めてみて、ちゃんとアラームが出たかを確認したことがあります。さすがに顧客さんは血だらけになった私の指先から目を背けて、「頼むからもうわかった、身体を張ったテストはしないでくれ」と懇願されたことがありました。
この様な冗長性のあるハードウェアは、稼働中に交換が可能で、その中にコンピュータ自体の電源ユニットがあります。電源ユニット自体は基本的には単装でも動作しますが、容量の大きなハードウェアや大量のHDDを搭載している場合は二重化が必須の場合もあります。多くの場合、単重電源ユニットでも動作しますが、UPS は商用電源の異常で「壊れることが任務」なので、UPS自体も二重化して、オンラインでUPSを交換できるように基本インフラを設計します。
さて、先日の胆振地震では、北海道の主力発電所の一つである苫厚発電所が被害を受けて、全道ブランクアウトという「想定外」の被害が出ました。
多くのデータセンターでは、商用電源も異なる変電所から給電を受けて二重化していますが、全道ブランクアウトという異常事態に対応しきれなかったいくつかのデータセンターでは、停電対策がうまく機能せずに一部にサービス障害が起こりました。
北海道地震、業種別の被害状況まとめ
https://tech.nikkeibp.co.jp/atcl/nxt/column/18/00432/091900033/
ただ、iDC が被害を受けたとしても、周辺の通信サービスや、iDC への交通手段がない、コールセンターが停止、などの副次的なトラブルがあることで、iDC そのもののシステムに問題がなくても、「サービス全体」に支障が出てしまえば、これも十分なインシデントです。
islandcenter at 13:43|Permalink│Comments(0)
2018年07月27日
2017年10月13日
データセンター、クラウドサービス事業者の階層化
データセンター、クラウドサービス事業者の階層化
ファシリティ提供者
データセンターのファシリティ提供事業者は、データセンターの用地、建物、電力会社が提供する電源、予備電源、主なバックボーン回線を提供します。もちろん、自らIT機器を配置して、IT機器をサービスとして、時間貸やトラフィック量、CPU装置の利用量による課金も行います。まぁ、パンツとパジャマ、歯ブラシから、エレベータと玄関ホール、寝床まで提供するホテルの様なものです。データセンター専業の運用事業者や、巨大なインターネットサービス、例えば Facebook や Google なんかはこうしたデータセンターに投資します。勿論ピンキリがあって、都心のランドマークホテルから、地方の巨大なリゾートホテル、民宿程度の規模まで様々な企業がやるわけです。大手のSIベンダーやISP、通信事業者なんかも、こうしたファシリティに投資しています。中には、大手企業が「社員保養所」の様に、自ら土地建物、IT機器から通信設備まで、自社利用オンリーで運用するケースもあります。しかし、巨大なファシリティの利用率が自社だけで満たされない場合、余剰した設備をデータセンターとして「部屋貸し」することもあります。
IT機器のみの装置貸し
当然、巨額の費用をかけてファシリティを作ってもすぐに満室になるわけがないので、中小のデータセンター事業者は、こうした土地、建物を借りて、サーバールームを作り、IT機器を設置します。
よく、都心のホテル&オフィスのビルディングの様に、29階まではオフィスで30階から40階までホテル、42、43階と地下街はショッピング&レストランのようなものですね。ビルと土地の所有者は「✖✖金融不動産」なんかが所有しています。立地条件が都心の様に利便性だけ考えると非常に高価な値付けができるデータセンターです。都心型のデータセンターの主な事業形態です。「✖✖インターネットサービス」なんていう感じの企業が主に借りて、ホテルとして経営して、パンツとパジャマ、部屋とベッドを提供します。エントランスやエレベーター、電源、通信インフラはファシリティ事業者が提供します。もっともファシリティ事業者の用意した回線容量が足りない場合は、部屋借りしている事業者が自前でエレベータ、ならぬケーブルを引いてくる事もあります。
自前の設備を持たない事業者、利用者
言わば「旅行代理店」や「結婚式場企画会社」のような事業者です。機器から電源、IT設備の全てはファシリティやデータセンター事業者から借りて、中のソフトウェアサービスだけ、自社で運用する、クラウドサービス専門の事業者です。ホテルの部屋まではファシリティ事業者や、データセンター事業者が提供し、内装レベルからホテルの備品程度のサービスまで差はありますが自前で提供する、という業者ですね。「隣の部屋」とはチト違うのよ、と言った「差別性」を持たせる事で、チト違うサービスをクラウドとして提供するわけです。多くの零細なクラウドサービス提供者のスタートアップ企業は、こうした「部屋借り」をします。もっとも、部屋にどういったIT設備を持つかはそれぞれの事業者で違ったりします。また、多くの顧客企業が「データセンターに機器を置いてユーザに提供する」形態のサービスもこの中に含まれます。
Google の様なサービスもスタートアップの時は自前のガレージに機器を置き、次にデータセンターの部屋貸りをして、次に自社のファシリティを作った方が安いし、余剰したリソースを逆に他人に貸し出すという具合にエスカレートして行きます。Amazon のクラウドサービスも書籍の小売りを始めたころのスタートアップは小さく、そのうちに貸し部屋に移り、そのうちに自社ファシリティを持ち、今では言わば 「Amazon 書店の空きリソース」を他人に貸し出したようなものです。Google も初期では、こうしたデータセンターを借りて運営させていましたが、自社でデータセンターを持った方が安価であるため、自社のファシリティを使い、かつて隣人だった、中小事業者にファシリティを貸し出すまでになっています。
石狩川流域をシリコンバレー化する勝手なプロジェクト
ファシリティ提供者
データセンターのファシリティ提供事業者は、データセンターの用地、建物、電力会社が提供する電源、予備電源、主なバックボーン回線を提供します。もちろん、自らIT機器を配置して、IT機器をサービスとして、時間貸やトラフィック量、CPU装置の利用量による課金も行います。まぁ、パンツとパジャマ、歯ブラシから、エレベータと玄関ホール、寝床まで提供するホテルの様なものです。データセンター専業の運用事業者や、巨大なインターネットサービス、例えば Facebook や Google なんかはこうしたデータセンターに投資します。勿論ピンキリがあって、都心のランドマークホテルから、地方の巨大なリゾートホテル、民宿程度の規模まで様々な企業がやるわけです。大手のSIベンダーやISP、通信事業者なんかも、こうしたファシリティに投資しています。中には、大手企業が「社員保養所」の様に、自ら土地建物、IT機器から通信設備まで、自社利用オンリーで運用するケースもあります。しかし、巨大なファシリティの利用率が自社だけで満たされない場合、余剰した設備をデータセンターとして「部屋貸し」することもあります。
IT機器のみの装置貸し
当然、巨額の費用をかけてファシリティを作ってもすぐに満室になるわけがないので、中小のデータセンター事業者は、こうした土地、建物を借りて、サーバールームを作り、IT機器を設置します。
よく、都心のホテル&オフィスのビルディングの様に、29階まではオフィスで30階から40階までホテル、42、43階と地下街はショッピング&レストランのようなものですね。ビルと土地の所有者は「✖✖金融不動産」なんかが所有しています。立地条件が都心の様に利便性だけ考えると非常に高価な値付けができるデータセンターです。都心型のデータセンターの主な事業形態です。「✖✖インターネットサービス」なんていう感じの企業が主に借りて、ホテルとして経営して、パンツとパジャマ、部屋とベッドを提供します。エントランスやエレベーター、電源、通信インフラはファシリティ事業者が提供します。もっともファシリティ事業者の用意した回線容量が足りない場合は、部屋借りしている事業者が自前でエレベータ、ならぬケーブルを引いてくる事もあります。
自前の設備を持たない事業者、利用者
言わば「旅行代理店」や「結婚式場企画会社」のような事業者です。機器から電源、IT設備の全てはファシリティやデータセンター事業者から借りて、中のソフトウェアサービスだけ、自社で運用する、クラウドサービス専門の事業者です。ホテルの部屋まではファシリティ事業者や、データセンター事業者が提供し、内装レベルからホテルの備品程度のサービスまで差はありますが自前で提供する、という業者ですね。「隣の部屋」とはチト違うのよ、と言った「差別性」を持たせる事で、チト違うサービスをクラウドとして提供するわけです。多くの零細なクラウドサービス提供者のスタートアップ企業は、こうした「部屋借り」をします。もっとも、部屋にどういったIT設備を持つかはそれぞれの事業者で違ったりします。また、多くの顧客企業が「データセンターに機器を置いてユーザに提供する」形態のサービスもこの中に含まれます。
Google の様なサービスもスタートアップの時は自前のガレージに機器を置き、次にデータセンターの部屋貸りをして、次に自社のファシリティを作った方が安いし、余剰したリソースを逆に他人に貸し出すという具合にエスカレートして行きます。Amazon のクラウドサービスも書籍の小売りを始めたころのスタートアップは小さく、そのうちに貸し部屋に移り、そのうちに自社ファシリティを持ち、今では言わば 「Amazon 書店の空きリソース」を他人に貸し出したようなものです。Google も初期では、こうしたデータセンターを借りて運営させていましたが、自社でデータセンターを持った方が安価であるため、自社のファシリティを使い、かつて隣人だった、中小事業者にファシリティを貸し出すまでになっています。
石狩川流域をシリコンバレー化する勝手なプロジェクト
2016年05月21日
クラウド相談室--ある金融機関の質問「データセンター事業の事情が知りたい」
クラウド相談室--ある金融機関の質問「データセンター事業の事情が知りたい」
まず、首都圏のDCの経営が厳しくなっている理由には高コストと老朽化がありますが、そのほかの原因も考えられます。
第1にコスト差ですが、土地は地方の100倍以上、人件費はおおよそ1.3倍以上になると推定され、さらに東京は温度が高温ですから、冷房電力も大きなものとなり、北海道と首都圏DCを比較すると非常に高コストになる例は多いと考えて良いでしょう。
islandcenter at 12:14|Permalink│Comments(0)
2015年10月07日
データ施設の熱、雪で冷却 北海道美唄市、18年度までに実用化
2015年05月18日
都市型DC、郊外型DC、地方型DC
都市型DC、郊外型DC、地方型DC
どういう違いがあるのでしょうか。
都市型DC
交通の便がよく、都心の高層ビル内にあり、駅から数分、セキュリティが高く、非常に高価。建物自体は事業者が所有しているのではなく、××不動産ビルなんて所の20階から29階までDCとしている、などというケースが多い。下手をすると、地下鉄の改札からノーチェックでDCのフロアまでは入り込めるケースもあるが、まぁそう言う所はまれ。ほとんど受付を通さないとエレベータも止まらない。
あまりに単価が高い事と、DCとして設計された建物ではないケースでは、想定外の重量で床が抜けそうなので、実際のスペース効率はひどく悪く、「選ばれた客」以外は断られる事もある。何しろフロアの半分は空いているのだが、機器の重量に耐えられないのだ。当然単価に跳ね返ってくる。 環境負荷なんて考えないからPUEは2.0以上ある事も当たり前で、そもそも機器が半分も入っていない部屋をガンガン冷やすため、凄いエネルギーを消費する。
しかし、事業者自身がDCとして設計した建物も多い。DC以外の利用目的がないため、単価はやっぱり非常に高い。ちょっと外れた湾岸地区なら倉庫から改造された建物もある。
ニーズは高いのだが、そもそも希少価値があるので、お値段も高い。
事業者のエンジニアの専門性もプライドも高い。
事業者の自社ビルじゃない場合は、当然「DCの引っ越し」という大事業があるわけです。容易ではないでしょうね。
郊外型DC
交通の便は一般的に悪い。都心のターミナル駅から電車に3回くらい乗り換えて1時間半、多くは郊外の住宅地で駅からバスで10分、徒歩5分のロケーション。大雨が降ったら行きたくない。数階建ての低層ビルで、事業者がビルを所有しているケースが多い。あるいは、倉庫会社などが、空き倉庫を使ってDCに転用しているケースがある。
エンジニアのレベルは一般的に高くはない。DC専門業者ならまだしも、大手のSI事業者がやっている場合は「メンタル系」のやっちゃった経験者や、吸収合併した顧客のシステム子会社社員に、顧客の依頼で出向させて遠距離通勤を強いて「リストラ部屋」代わりに勤務させているケースも多く、優秀なエンジニアはほとんど外注の派遣社員や、常駐している業務提携先のエンジニアが多く、正社員のモチベーションはメチャクチャ低い所もある。
そもそも業界の流行を後追いして、自社の技術力ではなく、下請けの他人のフンドシを借りて仕事をするSI事業者がやっている事は、レベルが低く、オーバースペックな設備を顧客に売るのが商売なので、これはこれで止むを得ないのかもしれない。
設備は思い切って設計できるため、免振床から生体認証、金属探知機、双発のディーゼル発電機など、事業者が思いっきりジマンできる面白いギミックが沢山詰め込む事ができる。何しろ、ビルの中で一番怪しい事をしそうな入館者は、センターの運営事業者自身の従業員だからである。
事業者は儲かっていないが、建設会社や設備関連の業者は笑いが止まらない。もっとも、顧客に買い取った大手さんの「いい顧客」を抱えているし、そういう顧客はシステム部門の専門家を丸ごとを売却してしまったため、価格を正当に評価できる人が居ないから「そんなもんか」程度に気軽にお金を落としてくれる。
首都圏から近いので、こういうシカケは年に一度くらいは顔を出す顧客受けには良いだろう。
サービスはそこそこ、単価もそこそこ。質は設備以外は期待しない方がいい。元々都市のヒートアイランド化と、東京湾から離れた内陸にあるため、PUEは恐ろしく高い。当然電源コストも高いので、決して安いとは言えない。元々都心型DCの受け皿なので、それなりに稼働率は高い。お値段も、それなりの設備を見ればわかる通り、決して安くはない。
地方型DC
本来ホスティングの為に設計されたところが多く、ハウジング向けではない。それでも、BCP拠点としてバックアップ用途に検討される事が多い。単価は安いが、年に一度もいくかどうかなので、存在すら忘れてしまう事もある。ハウジングするなら自己責任のリモート管理は必須。でもハウジングは止めた方がいい。多くの場合、非常に低い電力消費で動かすため、PUEは1.1前後が多く、そのレベルを目標としている。
エンジニアの専門性は高いが、ある意味では「専門バカ」に陥りやすい。どうも地方で仕事をしていると、専門性は高いが、世俗にいい意味でも悪い意味でも染まっていない。
質は高いが、ハウジングで利用するのは疑問。やっぱり「サービス」としてメニューから選択する方が正解。サービスとして見た場合、単価は馬鹿みたいに安い。IaaS や SaaS のクラウドサービスとして利用するのは正しい選択。
ホワイトデータセンター構想
どういう違いがあるのでしょうか。
都市型DC
交通の便がよく、都心の高層ビル内にあり、駅から数分、セキュリティが高く、非常に高価。建物自体は事業者が所有しているのではなく、××不動産ビルなんて所の20階から29階までDCとしている、などというケースが多い。下手をすると、地下鉄の改札からノーチェックでDCのフロアまでは入り込めるケースもあるが、まぁそう言う所はまれ。ほとんど受付を通さないとエレベータも止まらない。
あまりに単価が高い事と、DCとして設計された建物ではないケースでは、想定外の重量で床が抜けそうなので、実際のスペース効率はひどく悪く、「選ばれた客」以外は断られる事もある。何しろフロアの半分は空いているのだが、機器の重量に耐えられないのだ。当然単価に跳ね返ってくる。 環境負荷なんて考えないからPUEは2.0以上ある事も当たり前で、そもそも機器が半分も入っていない部屋をガンガン冷やすため、凄いエネルギーを消費する。
しかし、事業者自身がDCとして設計した建物も多い。DC以外の利用目的がないため、単価はやっぱり非常に高い。ちょっと外れた湾岸地区なら倉庫から改造された建物もある。
ニーズは高いのだが、そもそも希少価値があるので、お値段も高い。
事業者のエンジニアの専門性もプライドも高い。
事業者の自社ビルじゃない場合は、当然「DCの引っ越し」という大事業があるわけです。容易ではないでしょうね。
郊外型DC
交通の便は一般的に悪い。都心のターミナル駅から電車に3回くらい乗り換えて1時間半、多くは郊外の住宅地で駅からバスで10分、徒歩5分のロケーション。大雨が降ったら行きたくない。数階建ての低層ビルで、事業者がビルを所有しているケースが多い。あるいは、倉庫会社などが、空き倉庫を使ってDCに転用しているケースがある。
エンジニアのレベルは一般的に高くはない。DC専門業者ならまだしも、大手のSI事業者がやっている場合は「メンタル系」のやっちゃった経験者や、吸収合併した顧客のシステム子会社社員に、顧客の依頼で出向させて遠距離通勤を強いて「リストラ部屋」代わりに勤務させているケースも多く、優秀なエンジニアはほとんど外注の派遣社員や、常駐している業務提携先のエンジニアが多く、正社員のモチベーションはメチャクチャ低い所もある。
そもそも業界の流行を後追いして、自社の技術力ではなく、下請けの他人のフンドシを借りて仕事をするSI事業者がやっている事は、レベルが低く、オーバースペックな設備を顧客に売るのが商売なので、これはこれで止むを得ないのかもしれない。
設備は思い切って設計できるため、免振床から生体認証、金属探知機、双発のディーゼル発電機など、事業者が思いっきりジマンできる面白いギミックが沢山詰め込む事ができる。何しろ、ビルの中で一番怪しい事をしそうな入館者は、センターの運営事業者自身の従業員だからである。
事業者は儲かっていないが、建設会社や設備関連の業者は笑いが止まらない。もっとも、顧客に買い取った大手さんの「いい顧客」を抱えているし、そういう顧客はシステム部門の専門家を丸ごとを売却してしまったため、価格を正当に評価できる人が居ないから「そんなもんか」程度に気軽にお金を落としてくれる。
首都圏から近いので、こういうシカケは年に一度くらいは顔を出す顧客受けには良いだろう。
サービスはそこそこ、単価もそこそこ。質は設備以外は期待しない方がいい。元々都市のヒートアイランド化と、東京湾から離れた内陸にあるため、PUEは恐ろしく高い。当然電源コストも高いので、決して安いとは言えない。元々都心型DCの受け皿なので、それなりに稼働率は高い。お値段も、それなりの設備を見ればわかる通り、決して安くはない。
地方型DC
本来ホスティングの為に設計されたところが多く、ハウジング向けではない。それでも、BCP拠点としてバックアップ用途に検討される事が多い。単価は安いが、年に一度もいくかどうかなので、存在すら忘れてしまう事もある。ハウジングするなら自己責任のリモート管理は必須。でもハウジングは止めた方がいい。多くの場合、非常に低い電力消費で動かすため、PUEは1.1前後が多く、そのレベルを目標としている。
エンジニアの専門性は高いが、ある意味では「専門バカ」に陥りやすい。どうも地方で仕事をしていると、専門性は高いが、世俗にいい意味でも悪い意味でも染まっていない。
質は高いが、ハウジングで利用するのは疑問。やっぱり「サービス」としてメニューから選択する方が正解。サービスとして見た場合、単価は馬鹿みたいに安い。IaaS や SaaS のクラウドサービスとして利用するのは正しい選択。
ホワイトデータセンター構想
2014年11月27日
PUEに代わる、データセンターの省エネ評価指標 DPPEとは
DPPEとは Datacenter Performance Per Energy の略でグリーンIT推進協議会が推進する、日本発のデータセンター効率の指標です。
http://home.jeita.or.jp/greenit-pc/topics/release/100316_j.html
http://home.jeita.or.jp/greenit-pc/topics/release/pdf/dppe_j_20120824.pdf
DPPEは次の4つの指標で表されます。
ITEU: IT Equipment Utilization - IT機器の運用による最大効率化
ITEE : IT Equipment Energy Efficiency - IT機器の消費電力に対する効率
PUE: Power Usage Effectiveness - IT機器以外の付帯設備の効率
GEC: Green Energy Coefficient - グリーンエネルギーの効率的な利用
従来はPUEのみで、データセンターの効率を指数化していました。
DPPE は、これに加え、データセンターで使う機器の効率 ITEU(IT機器を最大パワーで動かせるか)、IT機器そのもののエネルギー性能比 - ITEE(同じ性能でも、どちらがエネルギー効率が高いIT機器か)、おなじみのPUE(付帯設備、特に冷房の効率化)、そして自然エネルギー効率GEC(どれだけ自然エネルギーを効率的に使うか)
という4つの指標を組み合わせて、データセンターの効率化を考えようというものです。
ITEU は、どれだけ、機材の性能を引き出すかがポイントとなります。これは、広い意味でソフトウェア的な視点です。運用(ソフトウェア)面で、どれだけ機材の性能を使いきるかがポイントです。アイドリングして無駄な電力を使わないで、負荷の高い機材とのロードバランスを取るためには高度なソフトウェア的な視点でのアプローチが必要です。
ITTE はハードウェア的な視点です。同じ性能のハードウェアでも、消費電力が少ない方を選択することは重要な事です。
PUE は皆さんご存知の通り、総消費電力における、付帯設備(冷房、照明)の消費電力の割合いを表します。
GECは、同じ敷地内でどれだけ、自然エネルギーを使っているのか、の指標です。
--
ただし私は幾つか重要な視点が欠けていると思います。まず、GECが「光、風」の自然エネルギーをどれだけ使っているか、という視点は視野が狭いと思います。これは、グリーンIT推進協議会が、太陽光パネルや風力発電と言ったモノを作る企業、団体が設立した事。これにより、自然エネルギーをどう普及させようかと言った狭い視点しか生まれません。
また、GECが、「敷地内」に限定されたことで、データセンターの立地条件である、自然エネルギーの供給源を「地域」として定義できない事です。データセンターの立地条件が必ずしも「風圧が高く自然冷却ができる沿海部」とか、日照率70%以上の広い敷地であるとか、極論を言えば、水力発電所を併設するとかしなければ、高いGECは達成できません。
また、ITEE は、IT機器の性能に大きく関わります。当然新しいIT機器であれば、価格、使用電力量に対する性能比は大きく異なります。つまり「いつも最新の設備を使えばいい」という事になります。原発廃炉問題も含めると、原子力発電のコストは以外と高いと言われます。同じことがIT機器にも言えます。IT機器の廃棄コストと環境負荷の面でも指標が必要ではないでしょうか。これもグリーンIT推進協議会が最新のIT機器の調達を進めたいIT関連企業が作り出した指標の裏面です。
ITEU は運用上の問題です。当然ホスティングを行う事業者と、顧客の機器をハウジングする事業者との間では大きな運用の違いがあります。
限定された敷地というわがままがメーカーのわがままなら、周囲の地域というわがままは地域のわがままです。地域のわがままを考えると DEPP はそのままでは受け入れることはできないでしょう。それが、私たち「地域」の考えです。
PUEのみで語られるデータセンターの効率評価に対して、DPEEも「一つの指標」です。それぞれのデータセンターの運用目標の指針としての試みです。いずれにせよ、PUEのみで語られていた、データセンターの運用効率に代わる業界団体による、標準的な「データセンターの性能」を表す指標としては評価できるでしょう。
http://home.jeita.or.jp/greenit-pc/topics/release/100316_j.html
http://home.jeita.or.jp/greenit-pc/topics/release/pdf/dppe_j_20120824.pdf
DPPEは次の4つの指標で表されます。
ITEU: IT Equipment Utilization - IT機器の運用による最大効率化
ITEE : IT Equipment Energy Efficiency - IT機器の消費電力に対する効率
PUE: Power Usage Effectiveness - IT機器以外の付帯設備の効率
GEC: Green Energy Coefficient - グリーンエネルギーの効率的な利用
従来はPUEのみで、データセンターの効率を指数化していました。
DPPE は、これに加え、データセンターで使う機器の効率 ITEU(IT機器を最大パワーで動かせるか)、IT機器そのもののエネルギー性能比 - ITEE(同じ性能でも、どちらがエネルギー効率が高いIT機器か)、おなじみのPUE(付帯設備、特に冷房の効率化)、そして自然エネルギー効率GEC(どれだけ自然エネルギーを効率的に使うか)
という4つの指標を組み合わせて、データセンターの効率化を考えようというものです。
ITEU は、どれだけ、機材の性能を引き出すかがポイントとなります。これは、広い意味でソフトウェア的な視点です。運用(ソフトウェア)面で、どれだけ機材の性能を使いきるかがポイントです。アイドリングして無駄な電力を使わないで、負荷の高い機材とのロードバランスを取るためには高度なソフトウェア的な視点でのアプローチが必要です。
ITTE はハードウェア的な視点です。同じ性能のハードウェアでも、消費電力が少ない方を選択することは重要な事です。
PUE は皆さんご存知の通り、総消費電力における、付帯設備(冷房、照明)の消費電力の割合いを表します。
GECは、同じ敷地内でどれだけ、自然エネルギーを使っているのか、の指標です。
--
ただし私は幾つか重要な視点が欠けていると思います。まず、GECが「光、風」の自然エネルギーをどれだけ使っているか、という視点は視野が狭いと思います。これは、グリーンIT推進協議会が、太陽光パネルや風力発電と言ったモノを作る企業、団体が設立した事。これにより、自然エネルギーをどう普及させようかと言った狭い視点しか生まれません。
また、GECが、「敷地内」に限定されたことで、データセンターの立地条件である、自然エネルギーの供給源を「地域」として定義できない事です。データセンターの立地条件が必ずしも「風圧が高く自然冷却ができる沿海部」とか、日照率70%以上の広い敷地であるとか、極論を言えば、水力発電所を併設するとかしなければ、高いGECは達成できません。
また、ITEE は、IT機器の性能に大きく関わります。当然新しいIT機器であれば、価格、使用電力量に対する性能比は大きく異なります。つまり「いつも最新の設備を使えばいい」という事になります。原発廃炉問題も含めると、原子力発電のコストは以外と高いと言われます。同じことがIT機器にも言えます。IT機器の廃棄コストと環境負荷の面でも指標が必要ではないでしょうか。これもグリーンIT推進協議会が最新のIT機器の調達を進めたいIT関連企業が作り出した指標の裏面です。
ITEU は運用上の問題です。当然ホスティングを行う事業者と、顧客の機器をハウジングする事業者との間では大きな運用の違いがあります。
限定された敷地というわがままがメーカーのわがままなら、周囲の地域というわがままは地域のわがままです。地域のわがままを考えると DEPP はそのままでは受け入れることはできないでしょう。それが、私たち「地域」の考えです。
PUEのみで語られるデータセンターの効率評価に対して、DPEEも「一つの指標」です。それぞれのデータセンターの運用目標の指針としての試みです。いずれにせよ、PUEのみで語られていた、データセンターの運用効率に代わる業界団体による、標準的な「データセンターの性能」を表す指標としては評価できるでしょう。
2014年11月20日
高倉健と「幸せの黄色いハンカチ」、「ドライブインいしかり」で変わったこと
道民にとって高倉健は特別な俳優です。
東映の任侠映画に出演してきた高倉健にとっては、東映から独立して初めてやった「イイ人役」の映画が「幸せの黄色いハンカチ」だと思います。
後半、欣也と朱美に自分の過去を語り終えた勇さんが
「やっぱりオレ夕張行くわ」
と決心を固めるシーンを取ったのが、あの「ドライブインいしかり」の駐車場でした。目の前は三井東圧化学(現、北海道三井化学)の正門前。目の前は国道12号線。多くの車が豊沼の交番前の坂を上り下りしています。
当時、豊沼の中学生だった私たちは昼休みに「おい、今タカクラケンがあそこの"ドライブイン石狩"でロケやってるぞ」程度にしか思っていなかったし、後でテレビ放映された時も「おぉ、映っているな」ぐらいしかかんがえませんでしたが、東圧正門前から坂を上って砂川市内へと流れるクルマを目の前に、一人の前科持ちのヤクザ暮らしの男が真正直に生きてみようと決心する瞬間のシーンだった訳です。
その後、高倉健は、暴力やバイオレンス、アクション映画にも出ましたが、基本的に「イイ人役」へと変わっていきます。
彼の変化の始まりは「幸せの黄色いハンカチ」であり、あの「オレ夕張へ行くわ」の台詞だったのかもしれません。そう考えると、あのわずか数十秒のシーンは、「映画俳優:高倉健」の一つの転換点だったのかな、と思います。
多くの感動を与えたあの映画と高倉健が水の様に流れて立ち寄り、そして去っていく。そんな物語が空知の小さな町で撮影されたのです。
今はあのロケ地「ドライブイン石狩」は産業、経済構造の変化によりコンビニエンスストアに代わりました。私たちも変わらなければならないのです。
東映の任侠映画に出演してきた高倉健にとっては、東映から独立して初めてやった「イイ人役」の映画が「幸せの黄色いハンカチ」だと思います。
後半、欣也と朱美に自分の過去を語り終えた勇さんが
「やっぱりオレ夕張行くわ」
と決心を固めるシーンを取ったのが、あの「ドライブインいしかり」の駐車場でした。目の前は三井東圧化学(現、北海道三井化学)の正門前。目の前は国道12号線。多くの車が豊沼の交番前の坂を上り下りしています。
当時、豊沼の中学生だった私たちは昼休みに「おい、今タカクラケンがあそこの"ドライブイン石狩"でロケやってるぞ」程度にしか思っていなかったし、後でテレビ放映された時も「おぉ、映っているな」ぐらいしかかんがえませんでしたが、東圧正門前から坂を上って砂川市内へと流れるクルマを目の前に、一人の前科持ちのヤクザ暮らしの男が真正直に生きてみようと決心する瞬間のシーンだった訳です。
その後、高倉健は、暴力やバイオレンス、アクション映画にも出ましたが、基本的に「イイ人役」へと変わっていきます。
彼の変化の始まりは「幸せの黄色いハンカチ」であり、あの「オレ夕張へ行くわ」の台詞だったのかもしれません。そう考えると、あのわずか数十秒のシーンは、「映画俳優:高倉健」の一つの転換点だったのかな、と思います。
多くの感動を与えたあの映画と高倉健が水の様に流れて立ち寄り、そして去っていく。そんな物語が空知の小さな町で撮影されたのです。
今はあのロケ地「ドライブイン石狩」は産業、経済構造の変化によりコンビニエンスストアに代わりました。私たちも変わらなければならないのです。
2014年07月04日
機器の故障と稼働率、MTBF,MTTR,TBW(PTW)とは
MTBF
MTBF(Mean Time Between Failure) は「平均故障間隔」の略です。「どれくらい故障しやすいか、壊れにくいか」を表す言葉です。機器の信頼性を表す指標です。
例えば「平均MTBF10,000時間のハードディスク」と言えば、「平均」一万時間で故障するハードディスクである。あるいは一万時間は動作するはずである、という事です。
仮にMTBF一万時間と仮定した場合、1万台のHDDがあると1時間に1台は壊れるという事になります。交換は結構忙しい作業ですね。
中にはアタリの悪いディスクもあって500時間もたたずに壊れるディスクがあれば、2万時間動作していても壊れなかったディスクもあります。500時間と言えばわずかひと月弱ですから、ほぼ「初期不良」として扱われるでしょう。製造番号が近いものは全て「怪しい」ので交換すべきです。
MTBF、一万時間と言えば、大体1年半くらいでしょうか。最近のハードディスクはMTBFは3~5万時間程度の様です。
MTBFを超えて運用できていれば、ラッキーです。大抵はMTBFを超える辺りでHDDの換装やシステムの更新が必要になります。中には20年全く壊れずに動き続けたという「猛者」を見たこともあります。
米グーグル社が自社で壊れたディスクの統計を取ってみたところ、ディスクのブランドやモデルと言った要素に関係なく「壊れるものは壊れる」し、壊れないでMTBFを超えて運用できているディスクにもブランドや型番は関係なかったという調査結果を発表しています。つまり壊れるか壊れないかは運次第ということでしょうか。
故障しやすい機器としては、他に電源やマザーボードに搭載されたコンデンサなどがあります。コンデンサも、稼働時間に比例して壊れやすいパーツです。ほとんどの場合、どのコンデンサが壊れたかを簡単に目視で確認できないし、半田で交換という訳にも行かないので、マザーボードや電源ユニット丸ごと交換という事になります。
という事で、普通のPCの寿命は5年が目安です。サーバーベンダーの中には7年保障を謳っているメーカーもありますが、これはあくまでもパーツの保持であり、故障することを前提で保障しているだけです。
金融システムなどに使われる専用のHDDを作るメーカーの工場で仕事をしたことがあります。ここのHDDは「絶対壊れない事が前提で作られています、他所のメーカーは壊れる事を前提で設計されています」と品質担当者が胸を張って答えたことが印象的でした。例え壊れても「なぜ壊れたのか」まで徹底的に究明しているそうです。工場の中では数万台のHDDが品質検査を受けていました。
こういった精度の高い品質のいいパーツを使っている場合のMTBFは高いレベルになります。
MTTR
MTTR(Mean Time To Repair/Recover) は「平均修理時間」という意味です。現実には「システムが動いていない時間」でSLA(サービスレベルの同意)の中で使われます。 MTTR4時間以内、という事は、4時間以内にサービスを再開できるという事になります。
またMTTRは「修理のしやすさ」を表します。実際の「安物」PCサーバーの場合、修理のためにいくつものネジを取り外したり、ケーブルの取り回しが複雑だったりします。
よくIT系の広告で「サーバーがたった3万9千円」などというのもありますが、私の様にハードウェアに詳しくないエンジニアでも、中を覗けば、いかにコストダウンした「安物のパーツ」が使われているか良くわかります。
例えばパネルの取り付けがネジ止めで雑だったり、電源交換しようにも、何本ものケーブルを間違えなく差し替えたりする必要がありそうだ、というのはすぐ見抜けます。中程度以上のサーバーの場合、レバー一本ひねるだけでパーツ交換ができたり、空冷ファンが工夫されていたり、ハードウェアが故障した場合の状況がわかるようなLEDが外部に付いていたりします。
この様な安物の機材の場合、たいていは1年保障で追加でも3年保障までしか受け付けません。しかも3万9千円でも年間保守料金が4万円かかったりするわけです。
この時間は実際にサービスが止まっていることになりますので、運用担当者はMTTRをどう短縮するかが腕の見せ所となります。
結局は壊れたパーツを取り寄せて、交換して、動かすことができれば問題ありません。しかしそれではサービスが停止します。そこで大手の顧客やクラウド事業者では、予備の機材を常に確保しておきます。MTBFの問題もあり、あるサービスを予備機に移し替えてサービスを止めないでMTTRを短縮します。壊れた機材は後でゆっくり修理して予備ストックするか廃棄するかです。
一か所に数千台から数万台のサーバがあるデータセンターでは、一日に2、3台のPCサーバーが壊れることは特別なことではありません。何しろ分母が大きいのです。
熟練した運用担当者は、機器が「壊れる予兆」という事に鼻が効いている必要があります。
廃棄するサーバーには、多くのレアメタルや銅線、取扱い危険な金属類が含まれています。これらの電子部品の廃棄、再利用に必要な産業も、DC立地には必要かもしれません。
TBW(PBW)
まだ余り注目されていませんが、TBW(Tera Byte Write) とは、最近はやりのSSD(半導体フラッシュメモリディスク)の故障単位の指標として使われます。PTW(Peta Byte Write) とも言います。
フラッシュメモリは「書き換え回数」が寿命です。
これは、半導体として、「書き換え」が負荷の重い作業で、半導体の寿命に大きな影響があるためです。
デジカメや携帯電話、ノートPCでよく使われる半導体メモリです。例えば私のデジカメは4Gbのメモリがあります。しかしこの4Gバイトを全て書き換えるのは年に一、二度です。ノートパソコンで使うSSDにしても、一日に書き変える量は多くても数Gバイトです。
一般的なSSD寿命のTBWは700―TBWから1―PTW程度ですが、ノートPCやデジカメ程度の書き換えであれば、ほぼ無限です。しかし24時間無停止のサーバーで使う場合、使い方によっては数週間から数か月で1PTWを超えてしまいます。
ほとんどのSSDディスクの場合1―PTW善後が書き換え寿命の様です。これは一日1Tbのデータの書き込みがあれば(1Tb×365日×3年)3年で確実に壊れる、という事です。
という事もあり、SSDの記憶装置はメーカーの保障期間は最大3年、もしくは機種により1PTW善後とするケースが多いようです。何しろまだ評価の定まっていないSSDの寿命問題です。良い悪いも含めて、バックアップを正しく取って運用することが無難です。
一般的に「書き換え量」が単位なので容量の大きなSSDほどTPWの値は大きくなります。128Gbの場合500TPW、512GBのSSDの場合、1.3PTWとかです。
読み出しの多いデータをSSDに配置して、書き込み、書き換えが多いデータをHDDに配置するのはエンジニアの腕の見せ所です。
一番困るのは、SSDを二重化しても、予備のシステムが同じ量のデータを書き換えてしまうという事です。しかも寿命は、データ量で決まってしまう。つまりバックアップシステムも、ほぼ同じタイミングで壊れる可能性が高いということです。
救いがあるとすると、SSDが壊れるには現在のTBWを計算して、「そろそろ寿命だ」と予測できることです。HDDの場合、「突然死」ということがあるので、こちらの方が怖いかもしれません。
HDDの場合は3年で壊れる場合もあれば、運が良ければ10年動作する場合もあります。しかしSSDは「利用頻度」によって必ず壊れるため、常に利用頻度をモニタする必要があります
HDDの場合、故障はMTBFという時間単位で示され、SSDはデータ量です。
まだSSDは若い技術なので、情報の蓄積がありません。実際のPTWがどれくらいなのか、まだ事例が少ないということです。
-複雑なシステム程壊れやすい-
さて、ここに90%(0.9)の稼働率の製品と90%の稼働率の製品とが組み合わさったとしましょう。
実際の稼働率は
0.9 × 0.9 = 0.81
となります。同じく 0.9(90%)の稼働率の製品が3つ組み合わさると 0.7 (70%)程度まで稼働率が落ちます。複雑なシステムはそれだけ、壊れやすいということになります。またシステムを二重化するなど、複雑性を増やすと、それだけ故障の原因がわかりにくくMTBFにも影響します。
99.9% の稼働率というのは1000時間に1時間の停止時間ということですから、約40日に1時間停止するということです。これでは使い物にならないと言われそうですね。99.99%程度であれば、大体1年は無停止ということになります。
石狩川流域をシリコンバレー化する勝手なプロジェクト
MTBF(Mean Time Between Failure) は「平均故障間隔」の略です。「どれくらい故障しやすいか、壊れにくいか」を表す言葉です。機器の信頼性を表す指標です。
例えば「平均MTBF10,000時間のハードディスク」と言えば、「平均」一万時間で故障するハードディスクである。あるいは一万時間は動作するはずである、という事です。
仮にMTBF一万時間と仮定した場合、1万台のHDDがあると1時間に1台は壊れるという事になります。交換は結構忙しい作業ですね。
中にはアタリの悪いディスクもあって500時間もたたずに壊れるディスクがあれば、2万時間動作していても壊れなかったディスクもあります。500時間と言えばわずかひと月弱ですから、ほぼ「初期不良」として扱われるでしょう。製造番号が近いものは全て「怪しい」ので交換すべきです。
MTBF、一万時間と言えば、大体1年半くらいでしょうか。最近のハードディスクはMTBFは3~5万時間程度の様です。
MTBFを超えて運用できていれば、ラッキーです。大抵はMTBFを超える辺りでHDDの換装やシステムの更新が必要になります。中には20年全く壊れずに動き続けたという「猛者」を見たこともあります。
米グーグル社が自社で壊れたディスクの統計を取ってみたところ、ディスクのブランドやモデルと言った要素に関係なく「壊れるものは壊れる」し、壊れないでMTBFを超えて運用できているディスクにもブランドや型番は関係なかったという調査結果を発表しています。つまり壊れるか壊れないかは運次第ということでしょうか。
故障しやすい機器としては、他に電源やマザーボードに搭載されたコンデンサなどがあります。コンデンサも、稼働時間に比例して壊れやすいパーツです。ほとんどの場合、どのコンデンサが壊れたかを簡単に目視で確認できないし、半田で交換という訳にも行かないので、マザーボードや電源ユニット丸ごと交換という事になります。
という事で、普通のPCの寿命は5年が目安です。サーバーベンダーの中には7年保障を謳っているメーカーもありますが、これはあくまでもパーツの保持であり、故障することを前提で保障しているだけです。
金融システムなどに使われる専用のHDDを作るメーカーの工場で仕事をしたことがあります。ここのHDDは「絶対壊れない事が前提で作られています、他所のメーカーは壊れる事を前提で設計されています」と品質担当者が胸を張って答えたことが印象的でした。例え壊れても「なぜ壊れたのか」まで徹底的に究明しているそうです。工場の中では数万台のHDDが品質検査を受けていました。
こういった精度の高い品質のいいパーツを使っている場合のMTBFは高いレベルになります。
MTTR
MTTR(Mean Time To Repair/Recover) は「平均修理時間」という意味です。現実には「システムが動いていない時間」でSLA(サービスレベルの同意)の中で使われます。 MTTR4時間以内、という事は、4時間以内にサービスを再開できるという事になります。
またMTTRは「修理のしやすさ」を表します。実際の「安物」PCサーバーの場合、修理のためにいくつものネジを取り外したり、ケーブルの取り回しが複雑だったりします。
よくIT系の広告で「サーバーがたった3万9千円」などというのもありますが、私の様にハードウェアに詳しくないエンジニアでも、中を覗けば、いかにコストダウンした「安物のパーツ」が使われているか良くわかります。
例えばパネルの取り付けがネジ止めで雑だったり、電源交換しようにも、何本ものケーブルを間違えなく差し替えたりする必要がありそうだ、というのはすぐ見抜けます。中程度以上のサーバーの場合、レバー一本ひねるだけでパーツ交換ができたり、空冷ファンが工夫されていたり、ハードウェアが故障した場合の状況がわかるようなLEDが外部に付いていたりします。
この様な安物の機材の場合、たいていは1年保障で追加でも3年保障までしか受け付けません。しかも3万9千円でも年間保守料金が4万円かかったりするわけです。
この時間は実際にサービスが止まっていることになりますので、運用担当者はMTTRをどう短縮するかが腕の見せ所となります。
結局は壊れたパーツを取り寄せて、交換して、動かすことができれば問題ありません。しかしそれではサービスが停止します。そこで大手の顧客やクラウド事業者では、予備の機材を常に確保しておきます。MTBFの問題もあり、あるサービスを予備機に移し替えてサービスを止めないでMTTRを短縮します。壊れた機材は後でゆっくり修理して予備ストックするか廃棄するかです。
一か所に数千台から数万台のサーバがあるデータセンターでは、一日に2、3台のPCサーバーが壊れることは特別なことではありません。何しろ分母が大きいのです。
熟練した運用担当者は、機器が「壊れる予兆」という事に鼻が効いている必要があります。
廃棄するサーバーには、多くのレアメタルや銅線、取扱い危険な金属類が含まれています。これらの電子部品の廃棄、再利用に必要な産業も、DC立地には必要かもしれません。
TBW(PBW)
まだ余り注目されていませんが、TBW(Tera Byte Write) とは、最近はやりのSSD(半導体フラッシュメモリディスク)の故障単位の指標として使われます。PTW(Peta Byte Write) とも言います。
フラッシュメモリは「書き換え回数」が寿命です。
これは、半導体として、「書き換え」が負荷の重い作業で、半導体の寿命に大きな影響があるためです。
デジカメや携帯電話、ノートPCでよく使われる半導体メモリです。例えば私のデジカメは4Gbのメモリがあります。しかしこの4Gバイトを全て書き換えるのは年に一、二度です。ノートパソコンで使うSSDにしても、一日に書き変える量は多くても数Gバイトです。
一般的なSSD寿命のTBWは700―TBWから1―PTW程度ですが、ノートPCやデジカメ程度の書き換えであれば、ほぼ無限です。しかし24時間無停止のサーバーで使う場合、使い方によっては数週間から数か月で1PTWを超えてしまいます。
ほとんどのSSDディスクの場合1―PTW善後が書き換え寿命の様です。これは一日1Tbのデータの書き込みがあれば(1Tb×365日×3年)3年で確実に壊れる、という事です。
という事もあり、SSDの記憶装置はメーカーの保障期間は最大3年、もしくは機種により1PTW善後とするケースが多いようです。何しろまだ評価の定まっていないSSDの寿命問題です。良い悪いも含めて、バックアップを正しく取って運用することが無難です。
一般的に「書き換え量」が単位なので容量の大きなSSDほどTPWの値は大きくなります。128Gbの場合500TPW、512GBのSSDの場合、1.3PTWとかです。
読み出しの多いデータをSSDに配置して、書き込み、書き換えが多いデータをHDDに配置するのはエンジニアの腕の見せ所です。
一番困るのは、SSDを二重化しても、予備のシステムが同じ量のデータを書き換えてしまうという事です。しかも寿命は、データ量で決まってしまう。つまりバックアップシステムも、ほぼ同じタイミングで壊れる可能性が高いということです。
救いがあるとすると、SSDが壊れるには現在のTBWを計算して、「そろそろ寿命だ」と予測できることです。HDDの場合、「突然死」ということがあるので、こちらの方が怖いかもしれません。
HDDの場合は3年で壊れる場合もあれば、運が良ければ10年動作する場合もあります。しかしSSDは「利用頻度」によって必ず壊れるため、常に利用頻度をモニタする必要があります
HDDの場合、故障はMTBFという時間単位で示され、SSDはデータ量です。
まだSSDは若い技術なので、情報の蓄積がありません。実際のPTWがどれくらいなのか、まだ事例が少ないということです。
-複雑なシステム程壊れやすい-
さて、ここに90%(0.9)の稼働率の製品と90%の稼働率の製品とが組み合わさったとしましょう。
実際の稼働率は
0.9 × 0.9 = 0.81
となります。同じく 0.9(90%)の稼働率の製品が3つ組み合わさると 0.7 (70%)程度まで稼働率が落ちます。複雑なシステムはそれだけ、壊れやすいということになります。またシステムを二重化するなど、複雑性を増やすと、それだけ故障の原因がわかりにくくMTBFにも影響します。
99.9% の稼働率というのは1000時間に1時間の停止時間ということですから、約40日に1時間停止するということです。これでは使い物にならないと言われそうですね。99.99%程度であれば、大体1年は無停止ということになります。
石狩川流域をシリコンバレー化する勝手なプロジェクト
2014年07月03日
データのバックアップ
データのバックアップと言えば、20年ほど前はDATテープ。2000年頃からLTO(リニアテープオープン)と呼ばれる規格のテープがこの十数年主流です。
テープバックアップの悪夢は、テープの中をスキャンしないと中に戻すべきデータがあるかどうかわからないという所です。1本のテープをスキャンするには数時間から丸一日かかる場合があります。その中に目的のデータがあればよし、なければ次のテープをスキャンする、という悪夢のような作業を繰り返して、やっと目的のテープのデータを見つけてリストアします。
ですから、通常はバックアップソフトウェアと組み合わせ、どのテープにどのデータが入っているかを管理し、必要なテープがどのテープなのかをできるだけ短時間で探し出す仕組みになっています。
そこで、バックアップのためのデータベースが障害を起こすと、これは困りものです。
もっとも、テープにラベルが貼ってあっても、ソフトウェアはそのラベルを読むわけではないので、「×月×日」と書かれたテープがソフトウェアのデータベースのリストにあるかどうか、一つ一つ調べるという、これまた悪夢のような作業があります。
テープバックアップ装置は、通常1本差しのものと、マガジンタイプのものがあります。実はこのマガジンタイプのものは、システム運用者にとって見たくない悪夢です。
テープの厚さは×nmという薄いビニールです。これが秒速数百回転のリムに巻き取られます。当然熱も出ます。高熱による巻き込み事故というのもあります。また、テープは接触媒体なので、読み取りヘッダを定期的にクリーニングしなければなりません。
さらに、マガジンタイプの装置であれば、テープをマガジンから取り出して、装置にセットするためのロボットが付いています。
いちど、とある国立の研究機関で見たことがあるのですが、4畳半ほどの広さの「部屋」にテープが何千本と並んでいる「装置」を見たことがあります。部屋丸ごとバックアップ装置なのですね。
テープチェンジャは稼働部品が多い。壊れやすいのです。
また、マガジン装置自体はどのラベルのテープが交換されたか、という情報を保持するため、いったんマガジンを交換すると、内部のロボットが
「ギーガポン、ギーガポン」
と内部のテープをスキャンします。この時間もオペレータにとっては悪夢です。蓋を開けて閉めただけでこの動作ですから、一日何度もコーヒータイムができてしまいます。
一度だけ経験したことがありますが、20本のテープをスキャンして、その中のわずか4本のテープからデータをリストアするまで3日かかったことがあります。
ということでシステム全体の障害というのは運用管理者にとって、最大の見たことにしたくないものなのです。
最近は、D2Dと呼ばれるディスク・ツー・ディスクのバックアップが主流です。これならば、いちいちテープをスキャンしたりしないため、リストアするためのデータに瞬時にアクセスできます。
また、テープメディアは1本1万五千円ほどしますが、最近のHDDの場合、倍の容量でもその半額で済みます。しかも、テープメディアの信頼性が置けるバックアップは精々数回だけ。20回も使えばエラーが出始めます。
しかし、まだテープ装置にはメリットがあります。
それはオフライン保管できるということです。
D2Dシステムの場合、オンラインでオペレーションのミスで瞬時にバックアップ内容が消去されますが、テープはオフラインで「耐火金庫に保管」という手段が取れるため、世代バックアップや何年もの間データを保管しておきたい場合などに有効です。ただ、サーバールームと同じ場所の耐火金庫であれば、火事で全部ダメになることもあるので、銀行の貸金庫や、「保管屋さん」と呼ばれる大金庫を持つ業者に預けるケースもよくあります。
日時のバックアップはディスクへ、月次のバックアップはテープで、という運用をしている運用担当者もいます。
不思議なもので、バックアップを丹念に管理しているお客様は、まず機材自体の故障という事故が起こりにくいようです。バックアップを粗雑にしている所では、よく機材が壊れて「御臨終」に立ち会うものです。
それでも古いテープメディアは新しい装置で読み込みができない場合もあります。ちょうど、今の時代のフロッピーディスクの様なものです。ここにデータがあるよ、とFDを出されても、読むための装置がない。これでは困りますね。
「北海道石狩平野をシリコンバレーに」
テープバックアップの悪夢は、テープの中をスキャンしないと中に戻すべきデータがあるかどうかわからないという所です。1本のテープをスキャンするには数時間から丸一日かかる場合があります。その中に目的のデータがあればよし、なければ次のテープをスキャンする、という悪夢のような作業を繰り返して、やっと目的のテープのデータを見つけてリストアします。
ですから、通常はバックアップソフトウェアと組み合わせ、どのテープにどのデータが入っているかを管理し、必要なテープがどのテープなのかをできるだけ短時間で探し出す仕組みになっています。
そこで、バックアップのためのデータベースが障害を起こすと、これは困りものです。
もっとも、テープにラベルが貼ってあっても、ソフトウェアはそのラベルを読むわけではないので、「×月×日」と書かれたテープがソフトウェアのデータベースのリストにあるかどうか、一つ一つ調べるという、これまた悪夢のような作業があります。
テープバックアップ装置は、通常1本差しのものと、マガジンタイプのものがあります。実はこのマガジンタイプのものは、システム運用者にとって見たくない悪夢です。
テープの厚さは×nmという薄いビニールです。これが秒速数百回転のリムに巻き取られます。当然熱も出ます。高熱による巻き込み事故というのもあります。また、テープは接触媒体なので、読み取りヘッダを定期的にクリーニングしなければなりません。
さらに、マガジンタイプの装置であれば、テープをマガジンから取り出して、装置にセットするためのロボットが付いています。
いちど、とある国立の研究機関で見たことがあるのですが、4畳半ほどの広さの「部屋」にテープが何千本と並んでいる「装置」を見たことがあります。部屋丸ごとバックアップ装置なのですね。
テープチェンジャは稼働部品が多い。壊れやすいのです。
また、マガジン装置自体はどのラベルのテープが交換されたか、という情報を保持するため、いったんマガジンを交換すると、内部のロボットが
「ギーガポン、ギーガポン」
と内部のテープをスキャンします。この時間もオペレータにとっては悪夢です。蓋を開けて閉めただけでこの動作ですから、一日何度もコーヒータイムができてしまいます。
一度だけ経験したことがありますが、20本のテープをスキャンして、その中のわずか4本のテープからデータをリストアするまで3日かかったことがあります。
ということでシステム全体の障害というのは運用管理者にとって、最大の見たことにしたくないものなのです。
最近は、D2Dと呼ばれるディスク・ツー・ディスクのバックアップが主流です。これならば、いちいちテープをスキャンしたりしないため、リストアするためのデータに瞬時にアクセスできます。
また、テープメディアは1本1万五千円ほどしますが、最近のHDDの場合、倍の容量でもその半額で済みます。しかも、テープメディアの信頼性が置けるバックアップは精々数回だけ。20回も使えばエラーが出始めます。
しかし、まだテープ装置にはメリットがあります。
それはオフライン保管できるということです。
D2Dシステムの場合、オンラインでオペレーションのミスで瞬時にバックアップ内容が消去されますが、テープはオフラインで「耐火金庫に保管」という手段が取れるため、世代バックアップや何年もの間データを保管しておきたい場合などに有効です。ただ、サーバールームと同じ場所の耐火金庫であれば、火事で全部ダメになることもあるので、銀行の貸金庫や、「保管屋さん」と呼ばれる大金庫を持つ業者に預けるケースもよくあります。
日時のバックアップはディスクへ、月次のバックアップはテープで、という運用をしている運用担当者もいます。
不思議なもので、バックアップを丹念に管理しているお客様は、まず機材自体の故障という事故が起こりにくいようです。バックアップを粗雑にしている所では、よく機材が壊れて「御臨終」に立ち会うものです。
それでも古いテープメディアは新しい装置で読み込みができない場合もあります。ちょうど、今の時代のフロッピーディスクの様なものです。ここにデータがあるよ、とFDを出されても、読むための装置がない。これでは困りますね。
「北海道石狩平野をシリコンバレーに」
2014年06月08日
LibreOffice は地方自治体にピッタリ
北海道では深川市、弟子屈町など、また、会津若松市や徳島県庁、山形県庁などで導入されているオープンソースの Office アプリケーションが LibreOffice です。
LibrOffice の最大の特徴は
「Windows でも Mac でも Linux でも無料で使える」
ということです。
自治体には様々な業者が文書を納入し、必要であれば住民へのファイルの提供も行うことがあります。しかし Microsoft Office は Macintosh では開いて編集することができません。Mac 版 Office もありますが、微妙に問題が起こります。
また、今年4月にサポート切れで騒動となった Windows XP 搭載PCを Linux に置き換えた、という個人の方も結構周囲にいます。
LibreOffice が地方自治体に導入された最大の理由はライセンスコストなのですが、オープンソースを推進することで、その地域の事業者、住民も電子化のコストを削減できます。
何しろ、今やPCは一人1台の時代です。家族のPC全てに1ライセンス数万円の Microsoft Office をインストールするとなると大変な額を、住民は自己負担しなければなりません。
もっともプリインストールや、同一家庭で利用する場合の緩やかな制限など、様々にコスト削減はできます。それでも全てのPCに Microsoft Office を導入する場合のライセンスコストは馬鹿にはできないのです。
また、Office Home Edition や Academic Discountを行使して購入した Microsoft Office では、ビジネス向けのファイルを作成してはならない、というルールもあります。つまり「家庭用PCにプリインストールされた Microsoft Office Home」 では、個人事業者の青色申告の計算もできない、というルールです。また、学業と仕事と二足の草鞋を履いている苦学生は、自分のコンピュータで、仕事用の文書を作成することは禁止されているようです。
子供の学生証でアカデミックパックを買ってきて、お父さんのPCにインストールするのが非常識であることは当たり前ですよね。
その様にHome Edition がプリインストールされている Microsoft Office が仕事でつかえないので、別途ライセンスの購入が必要だということらしいのですね。日本では特別なルールがあるそうですが、海外では一応そういうことになっています。
またプリインストール版は、他のコンピュータに「移植」することができません。インストールされたコンピュータと紐づけられて、利用許諾をされています。したがって、PCを買い替える時はまた Office も買い替えなければなりません。
私の場合は、ノートPCからデスクトップ、更にはテスト用のサーバ環境にもライセンスフリーな LibreOffice を導入しています。何の懸念もなく導入することができます。
一方、Microsoft Offce を導入する場合、これがライセンスに適合するのか、あるいはインストールする途中で、あの長ったらしい呪文をセットしないと起動しないかも知れないという不安があって、ライセンス上やはり安心して使えないのです。
なーに、慣れだよ
Microsoft Office から LibreOffice への移行の最大の問題点は、利用者の「慣れ」の問題です。ほぼ文章を作成するとか、表計算をする程度のことであれば、何の問題もなく使い始められますが、ちょっと凝った作業をしようとするとたちまちこの問題にぶち当たります。
こういったちょっとした問題の「よくある質問集FAQ」を作っておけば問題は少ないでしょう。私は絶対に凝ったことはしません。何しろ時間の無駄ですし、凝った「文書」より凝った「文章」を大切にします。残業泥棒と呼ばれないためにも、できるだけ簡素な「文書」にすることを心がけています。
良くある互換性の問題
LibreOffice を使った場合、Microsoft Office の文書が崩れるという問題がまれにあります。多くの場合、俗悪な「Excel 方眼紙」を使ったケースにあるようで、早くこの Excel 方眼紙は撲滅して欲しいものです。Excel 方眼紙を使ったスプレッドシートでない限り、まずほとんど罫線や文字化けなどはありません。こういった問題は、レイアウトと印刷した時のクオリティのみを重視する政府や自治体からまず考え方を変えなければならないでしょう。
多くの導入自治体では、Microsoft Office も入った端末を数台用意しているようですが、これは場所の無駄というものです。リモートデスクトップを使ったVDIシステムであれば、サーバー室やデータセンターに導入した Windows 端末を Microsoft Office 専用にしておけば、スペースや電力、配線などの問題も解決します。
何よりも自分が使うPCに LibreOffce しか入っていない訳ですから、使うしかないのです。もし両方インストールされていれば、どうしても「慣れてしまった」Microsoft Office を使いがちになってしまいます。
役場がある特定のメーカーの製品を指定して納品を要求するというのは非常に不公平ではないでしょうか。
LibrOffice の最大の特徴は
「Windows でも Mac でも Linux でも無料で使える」
ということです。
自治体には様々な業者が文書を納入し、必要であれば住民へのファイルの提供も行うことがあります。しかし Microsoft Office は Macintosh では開いて編集することができません。Mac 版 Office もありますが、微妙に問題が起こります。
また、今年4月にサポート切れで騒動となった Windows XP 搭載PCを Linux に置き換えた、という個人の方も結構周囲にいます。
LibreOffice が地方自治体に導入された最大の理由はライセンスコストなのですが、オープンソースを推進することで、その地域の事業者、住民も電子化のコストを削減できます。
何しろ、今やPCは一人1台の時代です。家族のPC全てに1ライセンス数万円の Microsoft Office をインストールするとなると大変な額を、住民は自己負担しなければなりません。
もっともプリインストールや、同一家庭で利用する場合の緩やかな制限など、様々にコスト削減はできます。それでも全てのPCに Microsoft Office を導入する場合のライセンスコストは馬鹿にはできないのです。
また、Office Home Edition や Academic Discountを行使して購入した Microsoft Office では、ビジネス向けのファイルを作成してはならない、というルールもあります。つまり「家庭用PCにプリインストールされた Microsoft Office Home」 では、個人事業者の青色申告の計算もできない、というルールです。また、学業と仕事と二足の草鞋を履いている苦学生は、自分のコンピュータで、仕事用の文書を作成することは禁止されているようです。
子供の学生証でアカデミックパックを買ってきて、お父さんのPCにインストールするのが非常識であることは当たり前ですよね。
その様にHome Edition がプリインストールされている Microsoft Office が仕事でつかえないので、別途ライセンスの購入が必要だということらしいのですね。日本では特別なルールがあるそうですが、海外では一応そういうことになっています。
またプリインストール版は、他のコンピュータに「移植」することができません。インストールされたコンピュータと紐づけられて、利用許諾をされています。したがって、PCを買い替える時はまた Office も買い替えなければなりません。
私の場合は、ノートPCからデスクトップ、更にはテスト用のサーバ環境にもライセンスフリーな LibreOffice を導入しています。何の懸念もなく導入することができます。
一方、Microsoft Offce を導入する場合、これがライセンスに適合するのか、あるいはインストールする途中で、あの長ったらしい呪文をセットしないと起動しないかも知れないという不安があって、ライセンス上やはり安心して使えないのです。
なーに、慣れだよ
Microsoft Office から LibreOffice への移行の最大の問題点は、利用者の「慣れ」の問題です。ほぼ文章を作成するとか、表計算をする程度のことであれば、何の問題もなく使い始められますが、ちょっと凝った作業をしようとするとたちまちこの問題にぶち当たります。
こういったちょっとした問題の「よくある質問集FAQ」を作っておけば問題は少ないでしょう。私は絶対に凝ったことはしません。何しろ時間の無駄ですし、凝った「文書」より凝った「文章」を大切にします。残業泥棒と呼ばれないためにも、できるだけ簡素な「文書」にすることを心がけています。
良くある互換性の問題
LibreOffice を使った場合、Microsoft Office の文書が崩れるという問題がまれにあります。多くの場合、俗悪な「Excel 方眼紙」を使ったケースにあるようで、早くこの Excel 方眼紙は撲滅して欲しいものです。Excel 方眼紙を使ったスプレッドシートでない限り、まずほとんど罫線や文字化けなどはありません。こういった問題は、レイアウトと印刷した時のクオリティのみを重視する政府や自治体からまず考え方を変えなければならないでしょう。
多くの導入自治体では、Microsoft Office も入った端末を数台用意しているようですが、これは場所の無駄というものです。リモートデスクトップを使ったVDIシステムであれば、サーバー室やデータセンターに導入した Windows 端末を Microsoft Office 専用にしておけば、スペースや電力、配線などの問題も解決します。
何よりも自分が使うPCに LibreOffce しか入っていない訳ですから、使うしかないのです。もし両方インストールされていれば、どうしても「慣れてしまった」Microsoft Office を使いがちになってしまいます。
役場がある特定のメーカーの製品を指定して納品を要求するというのは非常に不公平ではないでしょうか。