しげふみメモ


おもにIT関連について、気になったことや試してみたことをメモしておきます。
Linux, Firefox, Thunderbird, Blog, Google, Amazon, Affiliate, iPod, PC, English ...

2008年12月

AutoPagerizeの私の使い方 2008年12月版

12月21日に AutoPagerize が一時的に使えなくなりました。
使えなくなって、あらためてAutoPagerizeのありがたさがわかりました。

現在は対処方法も公開されています。
autopagerizeが効かなくなったときの対処

wedata.netで公開されているJSONファイルに接続できないのが原因でした。このJSONファイルをダウンロードできないと、AutoPagerizeが機能しません(キャッシュが効いている間は多分大丈夫)。

1年半ほど前に便利なAutoPagerizeの私の使い方という記事を書きましたが、これを機に、現在の私の使い方をメモしておきます。

バージョンアップ情報は[autopagerize] - SWDYHのRSSを購読。

バージョンアップする時は、autopagerize.user.js を直接編集。
Userscripts.orgからInstallすると、いくつか追加している「ユーザスクリプトを実行しないページ」が初期化されてしまうため。

Greasemonkeyのアイコンを右クリックし、メニューに表示されるAutoPagerizeを右クリックすると、Greasemonkeyに登録してあるエディタが起動するので、それで編集。
http://userscripts.org/scripts/review/8551?format=txt を全てコピーペースト。

2ページ目が表示されるとリンクが全て target="_blank" になるので、スクリプトの FORCE_TARGET_WINDOW の true を false に変更。

wedata.net にアクセスできなくてAutoPagerizeが動作しなくなった場合は、autopagerizeが効かなくなったときの対処を参考に SITEINFO_IMPORT_URLS にAutoPagerizeのJSONファイルを公開しているサイトを追加。

[2008年 12/24追記]
以下も参考になります。
wedataのダウンでAutoPagerizeが動かない(効かない)件 - 0x集積蔵
[追記ここまで]

とりあえず、こんなところです。

あと、Google検索結果にブックマーク数を表示するスクリプトは、現在は Japanese Popular SBM Count With Google を編集して、はてなブックマークだけ表示されるようにしたものを使っています。

ところで、今まで動作していたものが急におかしくなった場合、Twitter検索すれば、自分だけなのかサーバ側の問題なのか、判断する助けになりますね。
そのうちに解決策もでてきますし。

このブログの関連記事

RHELでKickstartインストールする時にMDでミラーリング

RHELでKickstartインストールする時に、システムディスクをMDでミラーリングする場合のメモ。
実際にはRHEL 4.6で試しましたが、CentOSでも同じようにできるかと思います。

参考(Red Hat Enterprise Linux 5 のインストールガイド)
例えば、キックスタートファイルのパーティション関連の部分を以下のように。
zerombr yes
clearpart --all --initlabel

part raid.1 --size 100 --ondisk=sda
part raid.2 --size 100 --ondisk=sdb
part raid.3 --size 16384 --ondisk=sda
part raid.4 --size 16384 --ondisk=sdb
part raid.5 --size 51200 --ondisk=sda
part raid.6 --size 51200 --ondisk=sdb
part raid.7 --size 1 --grow --ondisk=sda
part raid.8 --size 1 --grow --ondisk=sdb

raid /boot    --fstype ext3 --level 1 --device md0 raid.1 raid.2
raid swap     --fstype swap --level 1 --device md1 raid.3 raid.4
raid /work    --fstype ext3 --level 1 --device md2 raid.5 raid.6
raid /        --fstype ext3 --level 1 --device md3 raid.7 raid.8

これで、以下のようになりました。
[root@node01 ~]# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/md3              8.3G  1.2G  6.8G  15% /
/dev/md0               99M   14M   81M  14% /boot
none                  249M     0  249M   0% /dev/shm
/dev/md2               50G   84M   47G   1% /work
[root@node01 ~]# 
[root@node01 ~]# cat /proc/mdstat 
Personalities : [raid1] 
md2 : active raid1 sdb2[1] sda2[0]
      52428032 blocks [2/2] [UU]
      
md1 : active raid1 sdb3[1] sda3[0]
      16779776 blocks [2/2] [UU]
      
md3 : active raid1 sdb5[1] sda5[0]
      8835648 blocks [2/2] [UU]
      
md0 : active raid1 sdb1[1] sda1[0]
      104320 blocks [2/2] [UU]
      
unused devices: <none>
[root@node01 ~]# 

2本目のディスクには GRUB がインストールされないので手動でインストールする必要があります。
以下に分かりやすい解説があります。
ミラクル・リナックス:ブートディスクをソフトウェア RAID 1 (ミラーリング) に構成する際の注意

今回、2本目のディスクの /boot は /dev/sdb1 にあるので、grub で root (hd1,0) を指定して setup すればインストールされます。

[root@node01 ~]# grub

grub> root (hd1,0)
root (hd1,0)
 Filesystem type is ext2fs, partition type 0xfd
grub> setup (hd1)
setup (hd1)
 Checking if "/boot/grub/stage1" exists... no
 Checking if "/grub/stage1" exists... yes
 Checking if "/grub/stage2" exists... yes
 Checking if "/grub/e2fs_stage1_5" exists... yes
 Running "embed /grub/e2fs_stage1_5 (hd1)"...  16 sectors are embedded.
succeeded
 Running "install /grub/stage1 (hd1) (hd1)1+16 p (hd1,0)/grub/stage2 /grub/grub.conf"... succeeded
Done.
grub> quit
quit
[root@node01 ~]# 

とりあえず以上です。

Flickrのクリスマスイースターエッグ 2008年版

FlickrのURLに ?snow=1 を付けると、、、
たまたまトップページにあった写真で試してみました。
http://www.flickr.com/photos/nuomi/77156587/?snow=1

Flickrのクリスマスイースターエッグ

Google Holiday Easter Eggs Double As Handy Revenue Boostersのコメント欄で知りました。

[2008年 12/20追記]
マウスカーソルの位置によって、雪の降り方がちょっと変わるみたいです。

このブログの関連記事

Google自身が「アドセンスブースター」を実行

Google、クリスマス関係の検索に「イースターエッグ」を表示
「Christmas」等の単語でググるとスポンサーリンクにアイコンが表示されます。

Googleのアドセンスブースター

以前に一部で流行った、アドセンスブースターを思い出しました。
そしてこれは Google は禁止しているようです。
Google、画像の横にアドセンスを掲載することを明確に「禁止」 :: SEM R
Inside AdSense: Ad and image placement: a policy clarification

米Googleは2006年12月18日、アドセンスの公式ブログ「A look inside Google AdSense」において、画像の横にアドセンスを掲載する行為を禁止すると明らかにした。
アドセンスのクリック率を高めて収入を得る方法のテクニックの1つとして、画像とアドセンスを並べて、画像とテキスト広告に関連性があるかのように見せる方法があった。Googleはこうした「あたかも関連性があるかのように画像とアドセンスを並べる」行為をしないようにパブリッシャーに求めた。

今回のクリスマスアイコンで、広告のクリック率は間違いなく上がっているでしょうね。

HPL(High-Performance Linpack)を試してみる その1 はじめに

はじめに

以前に、XeonでLINPACKベンチマークを手軽に実行する方法という記事を書きました。
1台のシステムであれば、簡単にLINPACKベンチマークを実行することができました。

しかし、1台だけでは限界があるので、複数台で実行できる HPL(High-Performance Linpack) を試してみました。
HPL - A Portable Implementation of the High-Performance Linpack Benchmark for Distributed-Memory Computers

TOP500 Supercomputing Sites では HPL が使われているので、これで TOP500 と比較することもできます。

以前に HPL についてちょっと調べたところ、実行するには色々なライブラリを揃えたり、コンパイルしたりと結構手間がかかりそうでした。
しかし、Intelからダウンロードできるバイナリを使えば、少し設定するだけで手軽に試すことができます。

この手順について数回に分けて書いてみます。
ただし、私は数値計算の専門家ではないので、勘違いや間違いなどがあるかもしれません。
おかしなところがあれば、コメントいただけると助かります。

実行環境

2x Dual-Core Intel Xeon 5272 3.40GHz, 6MB L2 cache, 1600MHz FSB, 16GB memory(8x2GB 800MHz FB-DIMM), SLES10 SP1 のシステム 8台を 4X DDR Infiniband で接続したもので試してみました。

実行結果

設定ファイル HPL.dat については後の記事で書きますが、とりあえず実行結果を載せておきます。
ちなみに、実際に試したのは2008年4月ごろなので、使用ソフトウェアのバージョンは今後の記事で紹介するものより古いです。新しいバージョンの方がよい結果が出ると思われます。

============================================================================
HPLinpack 1.0a  --  High-Performance Linpack benchmark  --   January 20, 2004
Written by A. Petitet and R. Clint Whaley,  Innovative Computing Labs.,  UTK
============================================================================

An explanation of the input/output parameters follows:
T/V    : Wall time / encoded variant.
N      : The order of the coefficient matrix A.
NB     : The partitioning blocking factor.
P      : The number of process rows.
Q      : The number of process columns.
Time   : Time in seconds to solve the linear system.
Gflops : Rate of execution for solving the linear system.

The following parameter values will be used:

N      :  120000 
NB     :     240 
PMAP   : Row-major process mapping
P      :       4 
Q      :       8 
PFACT  :   Crout 
NBMIN  :       4 
NDIV   :       2 
RFACT  :   Crout 
BCAST  :  1ringM 
DEPTH  :       1 
SWAP   : Mix (threshold = 60)
L1     : transposed form
U      : transposed form
EQUIL  : yes
ALIGN  : 16 double precision words

----------------------------------------------------------------------------

- The matrix A is randomly generated for each test.
- The following scaled residual checks will be computed:
   1) ||Ax-b||_oo / ( eps * ||A||_1  * N        )
   2) ||Ax-b||_oo / ( eps * ||A||_1  * ||x||_1  )
   3) ||Ax-b||_oo / ( eps * ||A||_oo * ||x||_oo )
- The relative machine precision (eps) is taken to be          1.110223e-16
- Computational tests pass if scaled residuals are less than           16.0

============================================================================
T/V                N    NB     P     Q               Time             Gflops
----------------------------------------------------------------------------
W11C2C4       120000   240     4     8            3359.40          3.429e+02
----------------------------------------------------------------------------
||Ax-b||_oo / ( eps * ||A||_1  * N        ) =        0.1004820 ...... PASSED
||Ax-b||_oo / ( eps * ||A||_1  * ||x||_1  ) =        0.0129916 ...... PASSED
||Ax-b||_oo / ( eps * ||A||_oo * ||x||_oo ) =        0.0024256 ...... PASSED
============================================================================

Finished      1 tests with the following results:
              1 tests completed and passed residual checks,
              0 tests completed and failed residual checks,
              0 tests skipped because of illegal input values.
----------------------------------------------------------------------------

End of Tests.
============================================================================

342.9GFlops 出ました。
このシステムの理論ピーク性能は
3.4GHz * 4Flop/cycle * 4core * 8node = 435.2GFlops
なので、理論値の 78.7% 出ていることになります。

TOP500との比較

2008年11月のTOP500 の500位でも12テラフロップス以上なので、TOP500には遠く及びません。
コア数だけ見ても、今回試したものは32コアで、500位は1952コアと61倍もあります。
構成がある程度似ていそうなシステムとして、372位の Cluster Platform 3000 BL460c, Xeon 52xx 3.33 GHz, Infiniband と比較すると、コア数は1344で42倍、Rmaxは15290で約44.5倍です。
ということで、TOP500に入るには桁違いに大変そうだということがわかりました。

以下、続き予定です。

  • ダウンロードとインストール
  • MPDの起動
  • HPL.datの作成
  • とりあえず実行
  • HPL.datを変更してみる
このブログの関連記事

XFSファイルシステムでquota その3 warnquota

XFSファイルシステムでのquota設定メモ。その3です。
その1その2からの続き。
quotaを超えたユーザにメールを送る設定について。
(これはXFSに限ることではないですが)

XFSファイルシステムでは、quota 情報は aquota.user や aquota.group といったファイルではなく、ファイルシステム内部に持っています。
cron で quotacheck する必要がありません。
ただ、メール送信については、cron で warnquota を実行することになるかと思います。

Manpage of WARNQUOTA
warnquota は各ファイルシステムのディスク quota を調べて、 制限に達したユーザーに警告メッセージのメールを送る。 通常は cron(8) を用いて実行される。

以下のログは SLES10 SP1 で確認したものです。ホスト名は node01 としています。
LVMで組んだ /home ファイルシステムで、ユーザquotaとグループquotaが有効になっています。

/etc/quotatab を以下のように、quotaを設定しているデバイス名と、そのコメントを追加。
quotaを設定していないデバイスはコメントアウト。
/dev/mapper/home_vg-home_lv: Your home directory

/etc/warnquota.conf の以下の行をコメントアウト。
# Comment this out or remove it once you have edited this config file
#
FAIL           = "configure /etc/warnquota.conf before running warnquota"

とりあえず、fumi ユーザが Soft limit を超えている状態で、warnquota を実行してみます。
node01:~ # xfs_quota -c 'quota -h fumi' /home
Disk quotas for User fumi (1003)
Filesystem   Blocks  Quota  Limit Warn/Time    Mounted on
/dev/mapper/home_vg-home_lv
               1.1G     1G   1.5G  00 [6 days] /home
node01:~ # quota -s fumi
Disk quotas for user fumi (uid 1003): 
     Filesystem  blocks   quota   limit   grace   files   quota   limit   grace
/dev/mapper/home_vg-home_lv
                  1155M*  1024M   1500M   6days     197       0       0        
node01:~ # 
node01:~ # warnquota -s
node01:~ # 

これで、以下のようなメールが、fumi と root に届きます。
Subject: Your account quota has exceeded!
To: fumi@node01.example.com
Cc: root@node01.example.com
Date: Sun, 14 Dec 2008 11:43:17 +0900 (JST)

Hello, I've noticed you use too much space on my disk
Delete your files on following filesystems:

Your home directory (/dev/mapper/home_vg-home_lv)

                        Block limits               File limits
Filesystem           used    soft    hard  grace    used  soft  hard  grace
/dev/mapper/home_vg-home_lv
               +-   1155M   1024M   1500M  6days     196     0     0       

See you!
                        Your admin
メールの件名やコメント、Cc 先などは、/etc/warnquota.conf で変更可能です。

あとは cron で適当な間隔で warnquota を実行するように設定すれば完了です。

このブログの関連記事

Thunderbirdでメール送信時にアドレスから表示名を削除

仕事用のメールソフトは Thunderbird を使っています。
これで結構悩ましいのが、メールアドレスに付く名前の表示名です。
参考:小野和俊のブログ:Thunderbird の唯一にして最大の悩みである「アドレス自動補完問題」を解決する方法

これを解決する、メール送信時にアドレスから表示名を削除してくれるアドオンがあります。
Auto Address Cleaner :: Thunderbird Add-ons
Markopee::Notebook: メール送信時にアドレスから表示名を取り除く拡張 Auto Address Cleaner

メッセージ送信時にアドレス(To, Cc, Bcc)から表示名を自動的に除去します。
例) "雷鳥 太郎" <taro@example.com> → taro@example.com
メッセージ作成中は表示名はそのまま表示されます。
送信されるメールから表示名は取り除きたいけれど、メッセージ作成中は宛先を間違えていないか確認するためにも表示しておきたいケースに有用です。

以前からチェックしていたのですが、その時はまだサンドボックスにあり、Mozilla Add-ons のアカウントが必要でした。
現在は一般公開されているので、アカウントが無くてもダウンロードできます。
Thunderbird使いなら持っておきたいアドオン10選 | CREAMU 経由で 10 Great Thunderbird Addons You Must Have | MakeUseOf.com で一般公開されている事を知りました。

今までインストールをためらっていた人も、これで手軽に試せますね。
もちろん、Thunderbird 2 にも対応しています。
私には手放せないアドオンになりそうです。

XFSファイルシステムでquota その2 xfs_quota

XFSファイルシステムでのquota設定メモ。その2です。
その1からの続き。
実際にディスク使用量の制限を設定してみます。

以下のログは SLES10 SP1 で確認したものです。ホスト名は node01 とし、ユーザ名は shige, fumi, foo としています。
LVMで組んだ /home ファイルシステムで、ユーザquotaとグループquotaが有効になっています。

管理には前の記事でも書いたように、xfs_quota コマンドを使用。
(repquota, quota, edquota, setquota コマンドでも使えますが)
-x オプションを付けて起動すると管理用のコマンドが使える。
起動するとプロンプトが変わり、コマンドが入力できる。q(またはquit)で終了。

管理者がquota情報を確認。
node01:~ # xfs_quota -x /home
xfs_quota> report
User quota on /home (/dev/mapper/home_vg-home_lv)
                               Blocks                     
User ID          Used       Soft       Hard    Warn/Grace     
---------- -------------------------------------------------- 
root                0          0          0     00 [--------]
shige         2576208          0          0     00 [--------]
fumi          1182592          0          0     00 [--------]
foo            143452          0          0     00 [--------]

Group quota on /home (/dev/mapper/home_vg-home_lv)
                               Blocks                     
Group ID         Used       Soft       Hard    Warn/Grace     
---------- -------------------------------------------------- 
root                0          0          0     00 [--------]
users         3902444          0          0     00 [--------]

xfs_quota> q
node01:~ # 

-c でコマンド指定も可能。
user quota を "human-readable" で表示。
node01:~ # xfs_quota -x -c 'report -u -h' /home
User quota on /home (/dev/mapper/home_vg-home_lv)
                        Blocks              
User ID      Used   Soft   Hard Warn/Grace   
---------- --------------------------------- 
root            0      0      0  00 [------]
shige        2.5G      0      0  00 [------]
fumi         1.1G      0      0  00 [------]
foo        140.1M      0      0  00 [------]

node01:~ # 

shigeユーザに Soft limit 4GB, Hard limit 5GBを設定。確認。
xfs_quota> limit bsoft=4g bhard=5g shige
xfs_quota> 
xfs_quota> quota -h shige
Disk quotas for User shige (1002)
Filesystem   Blocks  Quota  Limit Warn/Time    Mounted on
/dev/home_vg/home_lv
               2.5G     4G     5G  00 [------] /home
xfs_quota> 

同様に fumi と foo にも設定。report で確認してみる。
fumi が Soft limit を超えている状態。
容量の単位は t(テラ)でも指定可能。
xfs_quota> limit bsoft=1g bhard=1500m fumi
xfs_quota> limit bsoft=150m bhard=200m foo
xfs_quota> 
xfs_quota> report -u -h
User quota on /home (/dev/mapper/home_vg-home_lv)
                        Blocks              
User ID      Used   Soft   Hard Warn/Grace   
---------- --------------------------------- 
root            0      0      0  00 [------]
shige        2.5G     4G     5G  00 [------]
fumi         1.1G     1G   1.5G  00 [7 days]
foo        140.1M   150M   200M  00 [------]

xfs_quota> 

一般ユーザが自分のquota状況を確認するには、quota コマンドでもいいですが、xfs_quota コマンドの方が見やすいかも。
fumi@node01:~> quota -s
Disk quotas for user fumi (uid 1003): 
     Filesystem  blocks   quota   limit   grace   files   quota   limit   grace
/dev/mapper/home_vg-home_lv
                  1155M*  1024M   1500M   6days     197       0       0        
fumi@node01:~> 
fumi@node01:~> /usr/sbin/xfs_quota -c 'quota -h' /home
Disk quotas for User fumi (1003)
Filesystem   Blocks  Quota  Limit Warn/Time    Mounted on
/dev/mapper/home_vg-home_lv
               1.1G     1G   1.5G  00 [6 days] /home
fumi@node01:~> 

fumiユーザで Hard limit を超える500MB分を書き込んでみようとします。
fumi@node01:~> dd if=/dev/zero of=test1 bs=1024k count=500
dd: writing `test1': Disk quota exceeded
346+0 records in
345+0 records out
361885696 bytes (362 MB) copied, 4.69618 seconds, 77.1 MB/s
fumi@node01:~> 
fumi@node01:~> ls -lh test1 
-rw-r--r-- 1 fumi users 346M 2008-12-13 20:27 test1
fumi@node01:~> 
Disk quota exceeded と表示されて、Hard limit を超える分は書き込まれていません。
fumi@node01:~> /usr/sbin/xfs_quota -c 'quota -h' /home
Disk quotas for User fumi (1003)
Filesystem   Blocks  Quota  Limit Warn/Time    Mounted on
/dev/mapper/home_vg-home_lv
               1.5G     1G   1.5G  00 [6 days] /home
fumi@node01:~> 
fumi@node01:~> touch test2
touch: cannot touch `test2': Disk quota exceeded
fumi@node01:~> 
quota設定が効いて制限されています。

quotaを超えたユーザにメールを送る warnquota について、次の記事に続きます。
(XFSに限ることではないですが)

このブログの関連記事

AutoPagerizeのページ区切りをサイトに合わせて見やすくしよう

私にとって、AutoPagerizeはもう無くてはならないものになっています。
他にも使っている人はかなり多いはずです。
AutoPagerize のページ区切りにスタイルをあてる - 0x集積蔵 という記事がありました。
今までシンプルだったページ区切りの見た目を CSS でカスタマイズできるようになりました。

最近アップデートされた AutoPagerize 0.0.32 で対応しています。

早速、このブログに合わせて変更したものを CSS に追加してみました。

/* AutoPagerize */
.autopagerize_page_separator{
border:none;
}
p.autopagerize_page_info{
margin:5px 0px 20px;
background:#ebebeb;
-webkit-border-radius: 0.4em;
-moz-border-radius: 0.4em;
border-radius: 0.4em;
line-height:1.5;
font-size:100%;
text-align:center;
}

以下のように、ページ区切りが違和感無く挿入されています。
AutoPagerizeのページ区切りのスタイルを変更

かなり良くなった気がします。
これは公式デザインに取り入れてもいいぐらいかと思います。

今後、サイトのデザインに合わせて、AutoPagerizeのページ区切りのスタイルを変更しておくサイトが増えそうです。

サイト側で変更されるまでは、Firefoxのアドオン Stylish 等を使って、自分好みに変更してみるのもいいかと。

@namespace url(http://www.w3.org/1999/xhtml);

/* AutoPagerize */
.autopagerize_page_separator{
border:none;
}
p.autopagerize_page_info{
margin:5px 0px 20px;
background:#ebebeb;
-webkit-border-radius: 0.4em;
-moz-border-radius: 0.4em;
/*
border-radius: 0.4em;
*/
line-height:1.5;
font-size:100%;
text-align:center;
}

例えば、Googleだと以下のようになります。
StylishでAutoPagerizeのページ区切りのスタイルを変更

このブログの関連記事

XFSファイルシステムでquota その1 quotaを有効にする

XFSファイルシステムでのquota設定メモ。その1です。
とりあえず、mountと確認まで。
参考: LunaTear: xfsで快適quota

Manpage of QUOTAON
XFS ファイルシステムは特殊なケースである - XFS は quota 情報をファイルシステムメタデータとして扱い、 ジャーナルを用いて高レベルで一貫性を保証する。 XFS ディスク quota システムには、 集計 (accounting) と制限の強制 (limit enforcement) を行う 2 つのコンポーネントがある。 XFS ファイルシステムは quota の集計をマウント時に有効にする必要がある。 quota 集計を有効にした後で、 XFS ファイルシステムの制限の強制を有効にしたり無効にしたりできる。 デフォルトでは集計と強制の両方が有効にされる。
XFS の quota の実装では、ユーザーから見えるファイルではなく (ファイルシステムの) 内部に quota 情報を格納する。

quotacheck コマンドを使わなくていいのが良いですね。

xfs_quota(8) - Linux man page
1. The quotacheck command has no effect on XFS filesystems. The first time quota accounting is turned on (at mount time), XFS does an automatic quotacheck internally; afterwards, the quota system will always be completely consistent until quotas are manually turned off.
2. There is no need for quota file(s) in the root of the XFS filesystem.

以下のログは SLES10 SP1 で確認したものです。ホスト名は node01 とします。
LVMで組んだ /home ファイルシステムに、ユーザquotaとグループquotaを設定してみます。

/etc/fstab の該当行を以下のように変更。
/dev/mapper/home_vg-home_lv  /home  xfs  defaults,usrquota,grpquota  0 0

ちなみに、ここで、デバイスを /dev/home_vg/home_lv で指定すると、quotaの動作的には問題ないのですが、後述する xfs_quota コマンドで一般ユーザが quota コマンドを実行しても何も表示されない現象がありました。(rootユーザでは問題なし。LVMでなければ問題なし)
Re: [Samba] quota on xfs on lvm doesn't work(?) のスレッドに答えがあり、/dev/mapper/home_vg-home_lv のデバイスを指定すればOKでした。

mount -o remount でのリマウントでは有効にならなかったので、umount して mount 後に確認。
node01:~ # df -h /home
Filesystem            Size  Used Avail Use% Mounted on
/dev/mapper/home_vg-home_lv
                      150G  3.7G  147G   3% /home
node01:~ # 
node01:~ # cat /proc/mounts | grep home
/dev/mapper/home_vg-home_lv /home xfs rw,usrquota,grpquota 0 0
node01:~ #

/var/log/messages には以下のようなログ。
Dec 11 22:16:44 node01 kernel: XFS mounting filesystem dm-0
Dec 11 22:16:44 node01 kernel: Ending clean XFS mount for filesystem: dm-0
Dec 11 22:16:44 node01 kernel: XFS quotacheck dm-0: Please wait.
Dec 11 22:16:44 node01 kernel: XFS quotacheck dm-0: Done.

quotaon コマンドでquotaが有効になっていることを確認。
node01:~ # quotaon -v /home
quotaon: Enforcing group quota already on /dev/mapper/home_vg-home_lv
quotaon: Enforcing user quota already on /dev/mapper/home_vg-home_lv
node01:~ # 

これで準備完了です。

ところで、XFSでのquota管理には xfs_quota というコマンドを使うのがおすすめです。
xfs_quota コマンドでquotaが有効になっていることを確認するには以下。

node01:~ # xfs_quota -x -c state /home
User quota state on /home (/dev/mapper/home_vg-home_lv)
  Accounting: ON
  Enforcement: ON
  Inode: #148 (2 blocks, 2 extents)
Group quota state on /home (/dev/mapper/home_vg-home_lv)
  Accounting: ON
  Enforcement: ON
  Inode: #149 (2 blocks, 2 extents)
Project quota state on /home (/dev/mapper/home_vg-home_lv)
  Accounting: OFF
  Enforcement: OFF
  Inode: #149 (2 blocks, 2 extents)
Blocks grace time: [7 days 00:00:30]
Inodes grace time: [7 days 00:00:30]
Realtime Blocks grace time: [7 days 00:00:30]
node01:~ # 

ユーザとグループで集計と制限の強制が有効になっていることがわかります。
ちなみに、Project quota とは tree quota または directory tree quota とも言われるもので、あるディレクトリ以下の容量などを制限することができます。

ユーザの使用容量制限については、次の記事に続きます。

このブログの関連記事
エンジニア転職情報
このBlog内を検索
プロフィール

しげふみ

連絡先
連絡先
RSSリーダーに登録
Subscribe with livedoor Reader

あわせて読みたい
人気blogランキング

  • ライブドアブログ