2016年06月02日

独自モデルでwaifu2xの実行方法

このエントリーをはてなブックマークに追加
follow us in feedly
waifu2xですが、インストールにluarocksを要したり
実行時にTorchを用いたりと、非常に面倒な事が多いです。

apt-get update
apt-get install libsnappy-dev
apt-get install libgraphicsmagick-dev


git clone https://github.com/torch/distro.git ~/torch --recursive
cd ~/torch; bash install-deps;
./install.sh

luarocks install graphicsmagick
luarocks install lua-csnappy
luarocks install md5
luarocks install uuid
PREFIX=$HOME/torch/install luarocks install turbo

git clone --depth 1 https://github.com/nagadomi/waifu2x.git
インストールにここまで必要です。
後はcudaもインストールしておかなければいけません。



これでもう画像拡大とノイズ削減が出来るようになってます。



githubの方にも、何故か動画からの画像切り出し方法が書いてあります。
動画を拡大する用途も視野に入れてるのでしょうか?

avconv -i "movie.mp4" -ss 00:00:00 -t 00:03:00 -r 24 -f image2 frames/%06d.png

avconvはffmpegのaliasだそうですが、
avconvをインストールして使うためには、多分
apt-get install libav-tools





そして画像の学習方法ですが、
まず、画像リストを作成します
find frames -name "*.png" > data/image_list.txt

trained with 6000 high-resolution-noise-free-PNG images と云っているのに、
別に、jpgファイルでも大丈夫なのではないでしょうか?
画像はjpgファイルでも、問題は起きませんでしたし、
6000ファイルも無くても、問題は起きませんでした。



th convert_data.lua
画像を学習用データ形式に変換します。
実行すると data/images.t7 とかいうファイルが出来ます


convert_data.lua 中では、
lib/settings.lua を呼んでいて、その中でdata/images.t7 とかdata/image_list.txt の指定をしています。


画像を学習して独自モデルの構築ですが、
th train.lua -model_dir models/my_model -method scale -scale 2 -test images/miku_small.png

学習パラメータは、 lib/settings.lua に書いてあります。

学習したモデルファイルは、noise1_model.t7、 scale2.0x_model.t7 のような名前だと思います。


そして学習したモデルを使う時はこうです。
th waifu2x.lua -model_dir models/my_model -m scale -scale 2 -i images/miku_small.png -o output.png


トラックバックURL

コメントする

名前:
URL:
  情報を記憶: 評価:  顔   星
 
 
 
サイト内検索
にほんブログ村 科学ブログへ
にほんブログ村
adsense
Archives
amazon
blogchart
QRコード
QRコード
Recent Comments