辻の点〜Tsuji Yosukeの学習帳〜

大阪のロックバンド“nezire”専属ムービーカメラマンの日々の奮闘を綴るブログ。その他、上原ひろみ(Hiromi)の記事も多め。

Ustreamテスト配信(仕切り直しの第1回)〜Core2DuoのiMacで配信なんて無理!〜

Ustream配信のテスト結果の考察(雑感)を今回連載形式でまとめました。



「一体誰得!?Ustream配信、テストテストテスト!!
 〜奇特な貴方のきっとお役に立てるはず〜」   
  


第1回:Core2DuoのiMacで配信なんて無理!←本エントリー

第2回:メモリが足りないんじゃない、CPUが遅くてメモリが使い切れていないんだ!←Coming Soon!!

第3回:安定の光!光の道万歳!!←Coming Soon!!

第4回:Ustream Producer[free版]でたぶん一番高品質な配信設定←Coming Soon!!

(第5回以降:続ける予定です)


記念すべき第1回なのに「仕切り直しの」とあるのは、今年の正月にも実は何度かやっていてそのときの様子を本ブログに書いていたからなんですが・・・

正月のエントリー

◆Ustream番組『動くnezire』配信中!!

Broadcast live streaming video on Ustream


だがしかし(!)シリーズ形式で何本か書く予定で「前書き」と題したエントリーを1本書いたのち4ヶ月が経過。もう当時のことなんて忘れてしまいました!!(笑)というのは、冗談でして、当時のテスト内容はきちんと覚えています。そのときの画面キャプチャとかも律儀にフォルダも作って残っています。ただ、つい最近またテストをやって色々わかったことがあるため、それに触れずに過去の(正月の)テスト内容だけのエントリーを書くのはどうももったいない気がして、改めてテスト内容と考察を記載することとします。正月は「前書き」しか書いていませんでしたので、今回の「仕切り直し」シリーズでは実際のテスト内容の詳細、画面キャプチャも貼りつつ、また正月のテストにも触れながら書いていきます。


さて、本題にいきたいと思いますが、まずテスト環境に触れないわけにはいきません。今回使用した環境は「iMac(Early 2009)」と「Macbook Air(Mid 2011)」です。スペックは下記の通りです。

【iMac(24-inch, Early 2009)】
  • CPU:Core 2 Duo 2.93GHz
  • メモリ: 8GB
  • GPU:NVIDIA GeForce GT 120 (256MB)
  • OS:Mac OS X Lion 10.7.5

【Macbook Air(mid 2011)】
  • CPU:Core i5 1.7GHz
  • メモリ: 4GB
  • GPU:Intel HD Grphics 3000 (384MB)
  • OS:Mac OS X Lion 10.7.5


正月のテスト時はMacbook Airのみでテストを行いました
が、今回は違うPC(iMac)でもテストしてみることでMacbook Airがどんなもんかがわかるかなと。世の中比較しないとわからないものだらけですから。「どんなもんか」というのは僕の場合、専ら「自分の用途に合っているのか(このままでいいのか)」「買い替えるなら何がよい?」ということであります。正月のテスト配信でもそうだったのですが、回線も安定せず落ちるわ、PCもCPU100%張り付いて冷却ファンがぐわんぐわん鳴るわでMacbook Airでの品質向上は難しいだろうと思いつつも、僕が主に編集で使用しているiMacも何せ5年前のモデルでして・・・。iMacでの編集時もレンダリングにすごく時間かかるわ、プレビューが全くプレビューにならないそんな状態であります。こちらも案の定CPU100%張り付きに陥っております。そろそろ買い替えを考えておりまして、ユーストで使っているMacbook Airがどんなもんよを見ること以外にも、「iMacって実際どうなのよ」という逆の意味裏テーマもあったんです!・・・と、回りくどくてご免なさい。要するに僕は「Macbook Airの配信結構辛い!」「iMacも編集しんどい!」と日々頭を悩ましているんです。だからこうして「ちょっと聞いて聞いて!」といったことが出てきます。僕にとってこの悩みは実に深いのです。PCだけじゃなくてカメラも欲しいんです。レンズも欲しいんです。照明器具も欲しいんです。色々欲しいんです。だから、今後何に投資するべきかを考えてるんです。

さてさて、本題に戻りましょう。このiMacのテスト内容ですが、使用したソフトは
Ustream Producer(ver 5.0.2、2014/05/02時点最新)
です。

今回のテスト方法としては、
  • 映像はデスクトップ画面、音声はPC内部の音声(外部入力は使わず)
  • デスクトップ上で動画プレイヤー再生時とビデオファイルを直接触ったときの負荷を比較
結果としては、
  • 常時CPU100%張り付き
  • 動画再生無し(デスクトップ画面を映したのみ)で5fps(大体動画は30fps)
  • デスクトップ上で動画プレイヤー再生時は2〜3fpsに落ちる
  • Ustream Producerからビデオファイルを直接読み込み時は1〜2fps

■動画再生無しの場合(配信PCのキャプチャ画面)
1_動画再生無し(回線速度_CPU負荷率)


■デスクトップ上で動画プレイヤー再生時(配信PCのキャプチャ画面)
2_動画再生あり_デスクトップ上


■Ustream Producerからビデオファイルを直接読み込んだ場合(配信PCのキャプチャ画面)
3_動画再生あり_ビデオファイル直接

3_動画再生あり_ビデオファイル直接2


■実際の配信の様子(録画)



動画をご覧いただいたらわかる通り、非常にカクカクしています。ブロードバンド(死語?)が行き渡って、インターネット上でHD動画が幾らでも転がっているし、こうして配信の裾野が広がった今となっては非常にストレスフルな配信結果となっております。配信開始しただけで5fpsですからね…。インターネット上の動画は大体30fps、配信も30fpsがデフォルトですし、古くからテレビ放送も30fps(昨今は60fpsが主流だとか?)ですから、こんな5fpsの動画は動画になっていませんし、静止画のスライドショーにしては早すぎるし、何とも中途半端なもの、惨憺たる結果となりました。



ちなみに、正月のテストとは下記の点で異なっています。
  • 外部入力の使用有無(正月は外部カメラの映像、外部マイクの音声使用が中心)
  • 回線環境が変わっている(正月は「ADSL(50Mbps)」、今回は「光プレミアム(100Mbps)」)
  • Ustream Producerのバージョンが違う

■正月のテストの様子①(外部入力について)
1_テスト方法
  • Macbook Air = 配信PC
  • Q2HD = 外部カメラ
  • マイク=外部音声入力(取り込み)
  • オーディオインターフェース=外部音声を取り込み変換
  • (iMac = 音声出力[YouTube Audioライブラリ再生])
↓配信PC画面をiPhoneで撮影
2_負荷状況


■正月のテストの様子②(回線環境について)
  • 【パターン1】自宅Wifiを使用(ADSL 50Mbps)
  • 【パターン2】LTEを使用(au LTEテザリング)


【パターン1】自宅Wifiを使用(ADSL 50Mbps)

4_Wifi時速度
※スマホからのスピードテスト(配信PCからのテストはキャプチャ忘れ…)


【パターン2】LTEを使用(au LTEテザリング)
アップロード1_2014-01-01

3_テザリング時速度



【パターン1】【パターン2】速度一覧

4-2_速度結果一覧


アップロードはWifiが1.44Mbps、LTEは約3〜7Mbps、ダウンロードではWifiが12.31Mbps、LTEは約14〜19Mbps出ています。WifiのテストがLTEと比べて回数が少ない(Wifiは1回、LTEは3回)ですが、LTEのほうが数値上高くなっています過去の配信経験上もLTEの速度が早いのは頷けます。但し、様に経験上LTEは途中で切れることも結構ありますので、スピードテストの数値が高いからといってLTEが安心とも言えません(上記データには現れていませんが)。正月とは異なり今回のテスト時は、有線回線(Wifiの元となる回線)が光回線に変わっていましたが、それでだいぶ安定感がありましたし、実際スピードテストの数値も大幅にアップしていました。結局、Wifiは何の有線回線を敷いているかが影響してきますが、このあたりについては別エントリーで考察予定です。


今回の「仕切り直しの第1回」はこれにて終了です。随時更新していきます。



「一体誰得!?Ustream配信、テストテストテスト!!
 〜奇特な貴方のきっとお役に立てるはず〜」   
  


第1回:Core2DuoのiMacで配信なんて無理!←本エントリー

第2回:メモリが足りないんじゃない、CPUが遅くてメモリが使い切れていないんだ!←Coming Soon!!

第3回:安定の光!光の道万歳!!←Coming Soon!!

第4回:Ustream Producer[free版]でたぶん一番高品質な配信設定←Coming Soon!!

(第5回以降:続ける予定です)



★参加中のUstream番組「動くnezire」、過去配信(録画)はYouTubeからどうぞ!







【iPhoneだけで撮影・編集】Magisto, Video Shader, Reel Moments

昨今のスマホの進化は凄まじいですね。カメラの性能もどんどん向上するわ、カメラフィルターも有象無象に出てくるわ、自動編集アプリまであるわで簡単に動画をつくれちゃう時代になりました。今の時代、スマホがあれば何でもできちゃうみたいなことを冗談めかして言ったり聞いたりしますが、スマホを取り巻くエコシステムは映像方面でも急激な進化をしています。

本当に簡単に動画をつくれてしまう時代です、少しだけ手間をかければ。そして、それを公開する場がネット上にあり、それを共有するSNSがある。ここ数年、YouTubeを中心に僕のような個人が撮影・編集した動画が溢れていて、それがFacebookやTwitterで世界に拡散される。中にはいわゆる「YouTuber」と呼ばれる”YouTubeで生計を立てる人”まで出てきました(ごく一部ですが)。動画で身を立てる!といった人が雨後の筍のように出てきて、「今、動画が熱い!」「動画は儲ける!!」と従来のメディアや胡散臭い情報商材サイトも動画を盛んに話題にするようになりました。一昔前だったら、YouTube等動画共有サイトを小馬鹿にしていた地上波テレビ局様や大新聞様も最近では改心したのか「某インターネット動画サイト」という古臭い言い回しは変わらないものの(もう変わった?)、YouTubeにスピンオフの動画を出していたり、タイアップ動画を出したりしています。そして、何と言っても彼らのお客様である広告主様がじゃんじゃんYouTube広告を出しています。やっぱり客には勝てないのでしょう。YouTubeをはじめとする動画サイトはどんどん拡大しているように思います。

ただ、依然として動画をアップロードする人はごく少数のように思えます。写真であればInstagramを中心にフィルターかけたお洒落な写真がFacebookやTwitter上にわんさか出てきますが、動画に関してはまだまだ一部のようです。最近知ったのですが、YouTubeに動画をアップロードしている人は総視聴者数に対して0.4%しかいないようです(※中島聡氏のメルマガで紹介されていました)。

しかし、冒頭に書いた通りですが、その動画をつくる敷居を下げる試みというのがスマホを中心に出てきています。カメラフィルターもありますし、編集ソフトもありますし、今やスマホだけで撮影・編集までを完結させることが可能です。その動画作成に役立つスマホ(iPhone)アプリを僕が実際に使って撮影・編集・アップロードした動画を貼付けておきます。ただ、アプリの操作方法等細かい説明については割愛させていただきます。他に詳しく書いている方はおられますし。ここに挙げている動画は全てiPhoneだけで撮影・編集・アップロードしている、ただそれだけが言いたかったのです。iPhoneが1台あれば動画ができる。どうぞ僕を踏み台にして(このエントリーを活用して)動画作成の道へ羽ばたいてください。

※動画作成のフローだけを記載しておきます。




  【撮影】    Reel Moments(←タイムラプス撮影アプリ)
    ↓
  【編集】    YouTube Capture(※音楽追加のみ)
    ↓
  【アップロード】YouTube Capture





  【撮影】    Reel Moments、iPhone標準カメラアプリ
    ↓
  【編集】    Magisto(※素材を自動でカット割りしてくれる。音楽や文字もここで追加可)
    ↓
  【アップロード】YouTube Capture






  【撮影】    Video Shader(←ビデオフィルターが豊富)
    ↓
  【編集】    iMovie(※カット割りのみ)、YouTube Capture(※音楽追加のみ)
    ↓
  【アップロード】YouTube Capture


★補足★「YouTube Captureについて」
【撮影】【編集】【アップロード】の3段階のうち【アップロード】は全てYouTube Captureを使用していますが、真ん中の【編集】のところでYouTube Capture、その後【アップロード】でまたYouTube Captureと書いているフローについては厳密には、YouTube CaptureでYouTubeサイト(サーバー)へアップロードしてから編集することになります。



いかがでしょうか?例が悪かったかもしれませんが、iPhoneだけで撮影・編集・アップロードまでできます。試しに遊んでみてはいかがでしょうか?


今回紹介したアプリの操作方法は下記リンクを参照いただくとよいかもしれません。


【Magisto】
・Magisto: あなたが撮ったなにげない動画を、PVのようなクオリティにしあげてくれる凄いアプリ!無料。
・App Store


【Video Shader】
・App Store



【Reel Moments】
・【動画】iPhoneタイムラプス(Reel Moments)
・App Store


neziREC days公開③(第二弾・アコエ編)—ベーシストを引きずり出す—

neziREC days、続いてはベースの「アコエ」編の動画です。



【関連記事】


これ、和田さんの動画と比べて、素材があり過ぎて困りました。レコーディング当日、ボーカルは別採りでしたので、アコエさんをターゲットにしていました。「寄って撮ってやろう!」とアコエさんの指使いをもっと見たいという人にとって垂涎ものの動画を作ろうと、この日はアコエさんばかり撮っていました。結果、撮り過ぎて使いどころに悩む、「編集まだー?」のプレッシャーに曝されることとなりました(決してnezireの2人がそう言っているのではなく僕自身の思い込みです)。撮る前に、今日はこれとこれを撮れればいいかなとか少しは思うのですが、いざ現場に行くと、「うっほ!たまらん!!」とあれもこれも撮ってしまいます。

neziRECdays_akoe1


neziRECdays_akoe2


一応今回の動画作成においてはコンセプトがありました。それは、指使いを見せるベースの音を表に出すアコエさんのいつもとは違った一面を画面に出す、です。ベースが個人的には凄く好きなのですが、ギターやドラムといった音と重ねると、比較的裏方に回るものだと思います。最近のイヤホンやヘッドホンは重低音を重視したものが数多く出ているようですが(SONYのExtra Bass等)、それはある意味、ベースが縁の下の力持ちであることの裏返しでもあると思うのです。重低音重視のオーディオについては、R&Bが一般的になったりという音楽の変遷の影響もあるとは思いますが、そんなことを考えています。といった話はさておき、ベースが好きな僕としては、ベースの音をもっとフィーチャーしつつ、普段は控えめな彼が動いているところ(失礼w)を画面に出したかったのです。


今回の動画で個人的に惜しまれるのは、レコーディングでカメラを回していないときに起きた一幕。サウンドチェックをしているときに、モニター用のイヤホンを付けてアコエさんがかる〜くベースを弾いていました。そのときも、いつものように安定の音を繰り出していて、その安定さと言ったら「もうこれ、本採りでもいいんじゃね?」くらいの反応を周囲は見せていました。ですが、このときアコエさんが付けていたイヤホンはメトロノームしか鳴っていませんでした!w 普通はモニター用に他の楽器(パート)の音+メトロノームを聞きながらやるものらしいんですが。それを聴いたエンジニアさんも「えぇっ!」といった反応で場がドッと湧いたのを鮮明に覚えています。いつも通り、安定のベースを刻んでくれていたアコエさんに和田さんが呟いた一言がまた秀逸で今回の動画に収められなかったのが心残りです。


「君は修行僧みたいだね」

58)_1



ちなみに、僕の好きなベーシストは、トニー・グレイ、アンソニー・ジャクソン、スタンリー・クラークです(全て上原ひろみ繋がりですw)。


レコーディングの様子を収めたneziREC daysはまだまだ続きます。
次回は、サポート参加のヤマザキコウジロウさん(komodo.inc)にも登場いただきます。


neziREC days公開②(第一弾・和田編)—neziREC days命名、編集方法について—

一昨日公開されたインディーズバンド"nezire"のレコーディング風景を収めた「neziREC days」についてまた書きます。

今回の動画は、和田さん中心の「和田編」であります。



【関連記事】

さて、この和田編、nezireをご存知の方はお気づきかもしれません。少し珍しい絵だと思いませんか?そう、横からのショットです。普段のライブ撮影では、真横からのショット、斜め後ろのショットというのは実はありません。ライブのときは基本的に観客席側から撮影するため、前から、もしくは斜め前からのショットが多かったのです。据置カメラを置く場合でも、斜め前が多いです(何度か後ろに置いたこともありますが)。なので、この横からのショットというのは、結構狙っていたショットでもありました。運良くノリノリで弾く和田さんの表情もこの横からのショットで撮れたので今回はこのショットを主軸に動画を作成しました。

昨日の記事にも書きましたが、今回は困ったことに30秒の動画です。たくさんの素材を撮り溜めたカメラマンとしては、この30秒に凝縮するのは結構しんどい作業でした。和田さんの表情がたくさん詰まってますから。今思えば30秒だったからこそ、いつもとは一風変わった仕上がりになったと思うんですけども。


あと、今回の一連の動画は「neziREC days」といった形になっていますが、このタイトルは和田さんの考案です。バンド名のnezireとレコーディングのRECを重ねているんです。流石、うまいこと言う。RECが赤いのも和田さんのアイデアです。RECを大文字にしようと言ったのは僕です。笑

recを大文字にするか小文字にするかはあんまり悩まなかったのですが、今更ながら皆さんはどちらがいいと思いますか?RECを大文字にして編集した動画を「こっちがいいと思うんですけど…(再編集したくないけど)」と送りつけたので、和田さん実際どう思っているかあんまり聞いてませんが、皆さんの意見も聞いてみたいところです。


【採用案】
30)_1


【不採用案】
30)_2




【採用案】
58)_1


【不採用案】
58)_2



聞いても変える気ございませんが。



あと、動画制作の話を少し。今回のこの30秒の動画、3つのパートに分かれています。3つのパートに分かれているというか、僕の動画編集環境上、3つに分けて作らないと、僕のPCの処理が追いつかないんです。僕は編集にはFinal Cut Pro Xを使っていますが、Final Cut上でプレビューしようと思っても、カクカクするわ、音声途切れるわで、プレビューが全くプレビューになっていない、そんな状態なんです。

30秒の動画を一つのプロジェクト(タイムライン)上に並べて一気に編集しようとすると、プレビューどころか編集もままなりません。今回はマルチ画面を使っていますので、とくに処理が重く、3つのパート分けをして各々作成、一旦各パートの動画を出力し、再度取込んで3つの動画を並べて作成しています。

下のキャプチャがそのFinal Cut上の各パートの動画を並べたものです。

1


これを一旦書き出して最終一本の動画に仕上げて出来上がったものがこちらです↓

1



今回の動画、正確には30.30秒で60fps(fps=1秒当たりのフレーム数)で編集しています。上のキャプチャで「30:30」「60fps」と書いてあるのがわかると思います。「60fps=1/60秒=1フレーム当たり約0.016秒」で30:30フレーム、つまりは「(30秒×60フレーム)+30フレーム=1830フレーム」の動画です。パート毎に05:27(5秒27フレーム)、18:10(18秒10フレーム)、06:30(6秒30フレーム)となっており、合計30秒と30フレームです。60p撮影、60fps編集は過去のライブビデオでも基本的に同じ方法で行っており、その点ではあまり変わっていませんが、今回の動画では厳密にフレーム数を数えながら作成しました。ここらへんは動画編集者しか体感しない、もしかしたらそんなの誰も気にしていない自己満足の世界かもしれませんが、数フレームの差で動画の印象が変わってきます。今回であれば、3つのパートの最初と終わり、繋ぎの部分では、とくに気をつけました。60fpsで1フレームの差(約0.016秒)とまでは言わないものの、僕の場合、5〜10フレームくらいになると体感差を感じました。といっても、これは動画編集時に比較してみたときに気づく差だろうなと思います。つくづく世の中は比較だらけ、比較しないと気づかないものだなと思った次第です。


さてさて、今回の動画は「和田編」と書いてます通り、続いては「アコエ編」を近日公開予定です。


どうぞご覧ください。


neziREC days公開①(nezireレコーディング)—いつもとは違うこと—

昨日、インディーズバンドnezireのYouTubeチャンネル“nezire TV”で「neziREC days」が公開されました。これは彼らのレコーディング風景を収めた動画です。




【関連記事】


nezireのライブ映像をこれまで撮影・編集してきましたが、今回はレコーディング風景です。いつもと違って今回はきっちり30秒(正確には30.30秒ですが)。いつもはライブで良さそうなところを秒数制限なく作成していましたが、今回はCMのつもりで30秒制限を設けて動画を作成しました。

そして、秒数制限以上に苦労したのが、いつもよりも僕の構成力が肝となる性質の動画だったということ。つまりは、音楽に頼りきりでない動画をつくること。

何かというと、ライブビデオであれば彼らの音楽・メロディーがバックにずっと流れているわけで、そこに映像として彼らの姿を入れていけばよかったのです。しかし、今回はそういった動画ではありません。どのメロディーを使うか、どの絵を使うかといったことを構成も含めて僕で考えることになります(※誤解のないように言っておくと、ライブビデオでも基本的に僕がいいと思った部分を抜き出して作っています)。下世話な言い方ですが、これまでは彼らの紡ぎ出す音楽に僕は“もたれ掛かる”こともできたのです。というか、実際僕は“どっかり”もたれ掛かっていました。今回の動画も彼らの存在、音楽があるからこそ、という大前提は変わらないものの、動画の構成面はいつもより僕の裁量が大きいものだったのです。

これは撮影前から頭ではわかっていたものの、実際やってみると思いのほか大変なことでした。頭でわかっているくせに、実は4時間くらいカメラを回していました。それも、構成もあまり決めずに。結果、4時間分もの素材をどんな構成で、どこを使って仕上げるか非常に悩みました。4時間分も回していたら、個人的に「これは!」と思えるショットが何箇所もあったりしましたが、動画の構成上使えない、でも使いたいから他の構成を考える、いややっぱり厳しい、という葛藤の連続、堂々巡りでした。

撮影前から30秒くらいのショートムービーという路線はnezireと話し合って決めていたんですけどね。。。「これは撮りたい!」という本能の赴くままに、というと聞こえはいいですが、実態はあれもこれも撮っておこうというだらしがない性格ゆえによるものです。カメラのバッテリをその場で充電・交換しつつ、SDカードも一杯になったら予備のSDカードに交換して、その間にSDカードのデータをPCに取込んで(SDカード2枚しかなく)、ということをしていると、結局レコーディング時間の3分の2以上カメラを回しているという。。。

動画をつくるってやっぱり計画性が大切ですね。カメラの手振れを抑えるために壁にもたれかかったりすることはあれど、あまり(彼らに)もたれ掛かり過ぎてもいけないと気を引き締めた作品となりました。


58)_1



「あなたの人生の時間、30秒だけいただけませんか?」


人間、恋に仕事に子育て、介護、色々忙しいです。移動中、寝る前とかのスキマ時間に是非ご覧くださいね。


【動画】iPhoneタイムラプス(Reel Moments)

iPhoneでタイムラプスをやってみました。

iPhone_ReelMoments


「Reel Moments」というiPhoneアプリを使いました。先日、NEX-7というミラーレス一眼カメラで撮影したときと違って、“人力”インターバル撮影でもなく、Final Cut Pro Xで写真をつなぐ必要もなく、iPhoneをただただ置いておくだけ。Reel Momentsを使うと、設定した秒間で自動撮影して自動で写真を繋いでくれます。置くだけ簡単。

今回は撮影間隔は「最短」、フレームレートは「15fps」で作成しました。




なので、単なる早送りみたいになりましたw

で、この出来上がった動画は作成後にはフレームレートを修正することができません。撮影前に設定した秒数とフレームレートで自動撮影・動画作成(写真繋ぎ)まで一気通貫な設定フローとなっていますので少し注意が必要です。「置くだけ簡単」で誰でも気軽に使えることを優先したのでしょう。といっても、秒間とフレームレートはとくにそんなに気にしなくてもやってみればある程度自分のイメージに近いものが出来上がると思います(と言っておきながら早速失敗したのですが)。

今回の動画では秒間を「最短」と書きましたが、大体0.5〜1秒弱くらいの体感スピードでした。そして、均等に0.5〜1秒間隔で写真を撮る、といった感じではなく、0.5秒〜1秒間隔で2枚の写真を撮った後、0.5秒程度間を置いてまた05秒〜1秒に2枚の写真を撮るといった感じでした。

カシャ・カシャ・・カシャ・カシャ・・カシャ・カシャ・・

みたいな感じです。ただ、この秒間も多少乱れが出てきていました。撮影の条件下でISOやフォーカス、露出をオートで“多少”制御しているのだと思われますので、その影響かもしれません。“多少”と書いたのは、撮影時の画面を見る限り思ったよりオート機能が働かなかったように見えたからです。タイムラプス用の写真を撮影するときは、各種設定を固定にしておくのがおそらく一般的です。自動にすると、1枚の写真を撮る度に自動補正がかかってフォーカスや露出が変化してしまいます。今回の動画でいうと、車の光がたくさん入って来たときにカメラが自動的に調整しようとして、その調整の間シャッターが切れず秒間が狂ったりします。先日、同じ撮影下でNEX-7(ミラーレス一眼)を使って撮影したときは、カメラのモニタを見ずにiPhoneのストップウォッチを見ながらリモコンを押していましたが、リモコンを押しても反応しないなー、何かリモコンの効きが悪いなと思っていたら、オートフォーカスのままになっていて、それこそ車の光がレンズにたくさん入ってきたときにはオートフォーカスが働いてモニタがワシャワシャなっていました。ですが、Reel Momentsを使ったときは少し露出オーバーの箇所を示すような表示が時々出ましたが、思った程は出ませんでした。当然、普通のカメラはタイムラプス用ではありませんので、そういった調整が必要ですが、Reel Momentsはタイムラプス用のアプリですのでそこらへんで余計な設定をしなくていいような設計思想なんだろうなと思います。

以下に設定画面キャプチャを貼っておきます。
(※今回の動画撮影時と違って、秒間は2秒、フレームレートは30fpsの設定となっています)

■起動時の画面
 ※iPhoneの普通のカメラアプリ起動時と同じようにカメラが起動しますが、結構な確率で黒画面が出てきます(下記画面)。ただ、再起動すれば元に戻ります。
写真 1


■設定一覧画面①(最初の画面の歯車マーク押すと出てくる)
写真 2

■設定一覧画面②(①のつづき)
写真 3

■ビデオフレームのサイズ
写真 4

■シャッター間隔(秒間)
写真 5

■撮影時間(手動で停止させるか設定した時間で自動停止させるか)
写真 6

■再生のフレームレート(1秒を何枚の写真にするか)
写真 7

■停止未満の場合(たぶん、バッテリの残量で停止させるかどうかの設定。不明)
写真 8

■フラッシュモード
写真 9



置くだけ超簡単。是非、暇なときにやってみましょう。友人、恋人の待ち合わせの時間とかに適当に置いて撮ってみるのも楽しいと思います。大体15分回したら20%、30分くらい回すと40%くらいバッテリ減りますのでくれぐれもご注意ください。その後のご予定とかに差し支えない範囲でお楽しみください。

あと、タイムラプスはやってる間は暇です。じっとしておく忍耐力が必要です。大変寒い日が続いておりますので屋外で撮影される際には、十分お気をつけ下さい。


【参考】SONY NEX-7(ミラーレス一眼)でのタイムラプス動画



【動画】空撮!!AR.Drone2.0(空飛ぶカメラ)


もうだいぶ前ですが昨年の夏にAR.Drone2.0というラジコンカメラを買いました。このガジェットはカメラがついていてそのカメラで撮影した動画がこちらです。

 


nezireのボーカル・ギター和田さんに「地味!!」と言われました…


一方、和田さんが同じくAR.Drone2.0を使って編集した動画はこちらです↓




確かにこちらのほうが面白い。こちらの動画も撮影は僕なのですが、ちょうどこの日はロードバイクの試乗会が近くでやっていて少し会話したり、いい感じにカメラに向かって手を振ってくれてます。これを持っていると少しだけ人気者になれますよ。ただ、昨夏買ったばかりのときに一人で撮影していたときは僕に声を掛ける人は誰一人いませんでしたが ww


ちなみに、冒頭に挙げた元データはとある音楽著作権団体に申し立てを受けました。音声がないにも関わらず、です。パテントロールというか、無音の動画に対して著作権を主張してくるなんてただの迷惑団体にしか思えません。それとも、前衛芸術志向で本気で主張してきてるんでしょうか。


【動画】天王寺イルミナージュ2013(タイムラプス有り)// Osaka illumination

1/31(金)まで天王寺で行われていた「あべの・天王寺イルミナージュ2013」を撮影してきました。先日覚えたタイムラプスも織り交ぜながらの動画です。見逃したそこの貴方、必見ですよ!!


◆ショート版



【関連記事】
タイムラプス始めました①(SONY NEX-7で“人力”インターバル撮影)
タイムラプス始めました②(Final Cut Pro X 編集編)



◆ロング版



ショート版、ロング版と2通り作成しましたが、趣向は変えたつもりです。


タイムラプス始めました②(Final Cut Pro X 編集編)

先日、タイムラプス動画を作成したことを書きました。そのエントリーでは赤外線リモコンを使った“人力インターバル撮影”(単なる連写です)といった撮影方法について書きました。僕の使用しているカメラNEX-7にはインターバル撮影機能がありません。一般的にタイムラプス動画を作成されている方々は僕が調べた限り、インターバル撮影機能で機械的に撮影間隔を一定にして撮影している方が多いようです。デジタル一眼ムービーで圧倒的人気のCanonのデジ一カメラをお使いであれば、Magic Lanternというカスタムファームウェアでインターバル撮影機能を使えるようになったり、テレビ版モテキでも使われたPanasonic DMC-GHシリーズであれば、インターバル撮影機能が元々ついているそうで、デジタル一眼ムービーの主流のこれらカメラをお使いの方は、タイムラプス動画作成も援用できそうな感じで羨ましい限りです。

さて、今回は編集編について書きます。




【関連記事】
タイムラプス始めました①(SONY NEX-7で“人力”インターバル撮影)


編集方法についてですが、僕が調べた限りだとAfter Effectを使っている方が多いように思います。After Effectを僕自身が持っていないので、その使い方は他の方々に譲るとして、僕の場合は、Final Cut Pro Xを使用しています。

「編集でFinal Cut Pro Xを使っている」といっても「そもそもどんな編集するの?」という方が少し前の僕のようにある一定数おられると思います(なので、このエントリーを書いております)。

どんな編集をするか?僕の場合、撮った写真を動画にするという編集をFinal Cut Pro Xを使ってやっています。数百枚〜数千枚の写真をFinal Cut Pro Xで繋いで動画にするのです。

おそらく、After Effectをお使いの方も写真を動画にする手順からAfter Effectをお使いなんだと思いますが、その前に写真をLightroom等を使って現像してから繋ぐようです。僕は、今のところ写真の現像はやっていません。RAWデータからの現像というのが動画作成以上に結構PCスペックを使う処理のようです。タイムラプス動画で使う何百〜何千枚もの写真を現像する処理はPCが悲鳴を上げることは想像できますし(僕の場合、SONYのImage Data Converterを使っていますが1枚の写真を現像するのにもその辛さは存じ上げております)、今回のようにFinal Cut Pro Xで何百〜何千枚の写真を繋いで動画にするのにも僕のPCは何時間か固まっておりました。これでは僕自身の精神衛生上大変よろしくないため、しばらくは挑戦しないことにしています。

肝心のFinal Cut Pro Xで写真を動画にする方法ですが、プロジェクトに写真を並べて「control + d + 1 + Enter」です。以上です。



Final Cut Pro Xを使っている方であればここでいう「プロジェクト」の意味もお分かりだと思いますが、プロジェクトというのは動画作成時の動画を切った貼って並べるタイムラインのことです。

Final Cut Pro Xをお使いでない方にも読んでいただけるようもう少し補足すると、プロジェクトを作成する前に「イベントを作成」して、そのイベントに「メディアを読み込む」のですが、ここで撮影した写真を取込みます。そのイベントライブラリから写真を選択してプロジェクトにドラッグ&ドロップで持っていきます。そうすると、プロジェクトに写真が並び、ここで初めて切った貼ったの編集ができるようになります。

さてさて、先程挙げた「control + d + 1 + Enter」の手順はプロジェクトに写真を並べた後に行います。単に写真を並べた場合、大体2秒くらいに写真が遷移するように配置されます。それを再生すると、写真のスライドショーといった感じになります。この写真の遷移のタイミングをフレーム単位で調整をしていくのですが、1枚の写真(メディア)を1フレームとするのが「control + d + 1 + Enter」です。

24フレーム(24fps)であれば24フレームで1秒の動画が、60フレームであれば60フレームで1秒の動画が出来上がります。今回、タイムラプス動画を初めてやるにあたって、フレーム数が異なる場合の印象の違いを自分で試してみたかったので24fps、30fps、60fpsの3種類のフレーム数で動画を作成してみました。それをまとめたのが冒頭のYouTube動画です。

以下に、Final Cut Pro Xの編集画面(プロジェクト上に写真を並べた画面)を貼っておきます。全て「control + d + 1 + Enter」操作で1枚の写真を1枚のフレームに並べたときのものです。


◆24フレーム(24fps)
24fps


◆30フレーム(30fps)
30fps


◆60フレーム(60fps)
60fps


冒頭の動画でフレーム数が異なると同じ写真素材でも印象が異なることも分かっていただけるかと思います。また、同じ素材でもフレーム数が異なれば時間も変わってきます。

YouTubeのタイムラプス検証動画ではどれも144枚の素材を使っており、フレーム数毎に以下の秒数になります。

◆24fpsの場合の動画秒数(1フレーム=1枚の写真)

 144枚 ÷ 24fps = 6.0秒


◆30fpsの場合の動画秒数(1フレーム=1枚の写真)

 144枚 ÷ 30fps = 4.8秒


◆60fpsの場合の動画秒数(1フレーム=1枚の写真)

 144枚 ÷ 60fps = 2.4秒


単純な話ですが、こんなにも変わってきます。普段、nezireの動画をつくるときは、あまりフレーム数を意識して撮影・編集をしていませんでしたのでフレーム数を計算して動画をつくることは結構いい勉強になりました。あと、タイムラプス動画を作るって結構大変ですね。60fpsで作ろうものなら、24fpsと比べて2.5倍もの素材と労力が必要になってきます。「しばらくは24fpsでつくろう」深夜の寒空の中一人尿意を堪えながらしみじみ思ったタイムラプス体験でした。



◆写真を繋いで動画にしたときのプロジェクトライブラリ画面
2014-01-04_編集ファイル一覧_timelapse@十三


写真を繋いで動画にしたときのプロジェクトライブラリ画面です。これらの動画を全て一度書き出した後に新たにFinal Cut Pro Xに並べて今回の動画を作成しました。今回、マルチ画面の動画を初めて作成しましたが、マルチ画面は大変PC負荷が高いことを痛感しました。動画1分30秒のうちマルチ画面のカットは作成してから一度書き出し、取り込み、再度プロジェクトに並べ直しを繰り返しました。全体1分30秒の動画ですが、この動画プロジェクト1つ(タイムライン1つ)上でやろうとすると、マルチ画面のシーンではその数の動画が流れます。この処理が非常に高いため、他のカットの兼ね合い等でちょっと場所をずらそうとするとレンダリングが始まりますが、これが全然終わらない、というかPCが固まることが多々ありました。そのため、マルチ画面シーンは一旦書き出して、最終1分30秒の動画プロジェクトではマルチ画面のシーンは一度書き出した後の1つの動画がタイムライン上に並ぶという形にしました。参考までに。



タイムラプス始めました①(SONY NEX-7で"人力"インターバル撮影)


タイムラプス始めました。





【関連記事】
タイムラプス始めました②(Final Cut Pro X 編集編)


最近、YouTubeやVimeoでもよく見るやつです。


「微速度撮影」とも言われているようで、何枚もの写真を繋ぎ合わせた動画です。天体とか太陽の日出・日没、雲の流れだとか(肉眼で見たときに)比較的動きがゆっくりのもの、見ているこっちもじっと注力しておかないとその変化に気付き難いものから、街中を走る自動車や歩いている人といったように、見ればすぐおいそれと動いているものを撮ったりというのもあるようですが、動きがより目立つように静物(建物とか)とのバランスが結構重要なようで、タイムラプスは比較的俯瞰ショットで撮るのが多い印象です。

タイムラプスは世界中で結構流行っているらしく、YouTubeやVimeoで「Timelapse」で検索したら幾らでも出てきます。日本だとおそらくdarwinfish105さんという神奈川在住の方が有名で、結構な数の動画をアップされています。この方はブログでも撮影方法等を記載されており、すごく参考になります。


その他タイムラプスについて僕なりに色々調べた感じだと、タイムラプス動画作成にあたっては多くの方がカメラに搭載のインターバル撮影機能を使っているようです。タイムラプスは一定間隔で撮影した写真を繋ぎ合わせて動画にするので、素材写真の間隔があまりにずれていると絵の繋がりが損なわれるでしょうから。なので、タイムラプス動画に使われる機材は、インターバル撮影機能が付いているカメラを使うのが一般的なようです。インターバル撮影機能がないカメラの場合は、タイマー機能のついたリモコンを使ったりしているようです。


で、僕が持っているSONY NEX-7ではインターバル撮影機能はありません。しかも、タイマー機能のついたリモコン、SONYは出しておりません。NEX-7でインターバル撮影しようとするとこんな苦労が必要なんですねぇ。自作リモコン。。。【自作リモコンについて、2014/01/19 追記(後述)】


これが同じSONYでもNEX-7ではなく、NEX-5RとNEX-6であれば、“タイムラプスアプリ”なるものがあってインターバル撮影ができるようです。。。


で、色々考えた挙げ句、“人力”インターバル撮影をしました。


ストップウォッチ片手に秒数を数えながらひたすらボタンを押す。


・・・3秒おき・・・

・・・・・5秒おき・・・・・


「人力インターバル撮影」と冠してみたものの、要は連写です。


ただ、流石にリモコンは使いました。

_SL500_AA300_



同じ画角で撮ったほうがいいだろうと、サードパーティ製のリモコンをAmazonで買いました(サードパーティ製は幾つか種類があり最安430円〜からありましたが、思い立った日にすぐ欲しかったので上記リンク先のAmazon Prime対応のものを買いました)。せっかくセットした画角がシャッターボタンを押す度に少しずつ、手元が狂ったときには大きくずれてしまい、そんな不自然さは要らんだろう、品質を落とすだけだろうと思いましたので。


というものの、リモコン自体使うの初めてでちょっと焦ったことがありました。
リモコンが到着してから最初に家で試したときはとくに問題なく動作したのですが、いざ撮影場所に行ってリモコンを押してもカメラが全く反応しないのです。ボタン電池がなくなったと疑ってコンビニで買ってみて入れ替えてみるものの反応しない・・・と思ったら一回だけ反応!して、またさっぱり・・・と思ったらまた何か2枚くらい撮れた!!うほっ!!!みたいなことを正月早々、深夜のコンビニの前でやってたんですね。原因は、単にリモコンを構える位置が悪かっただけという・・・。NEX-7は赤外線センサーが前面に付いているらしく(他のカメラも一般的にそうなんでしょうか?)、カメラの真上か気持ち少し前側でリモコンを操作しないと反応してくれません。


さてさて、こんな感じで一苦労もあったものの一応出来上がりました。


僕自身の勉強というか検証の意味合いが強いので「テスト動画」といった体裁ですが。これ、編集に丸一日くらいかかっています(何と非効率な・・・)。僕の非力なPCでマルチ画面をしようとするととんでもなく大変だということを身を以て体感した丸一日でございました。このあたりは別エントリーで書こうかと思います。





【2014/01/19追記】
darwinfish105さんのブログをきちんと読むと、ienagaさんというお方がマルチインターバルタイマリモコンなるものを作成されており、これを使えば赤外線リモコン経由でインターバルタイマを使って撮影ができるようです。ほしい。人力しんどい。。。

あと、darwinfish105さんが「タイムラプス動画の作り方2014」というシリーズものを書いておられます。個人的には「part4の映像編集(作成中)」が非常に気になるところです。編集については、僕の場合、現像は今のところせずJPEG撮影後、Final Cut Proを使っていますが、darwinfish105さんは確かLightroomで現像、After Effectで動画編集されていたと思います。そこらへん非常に気になります。


Twitter プロフィール
大阪のロックバンドnezire専属カメラマン、映像班。上原ひろみ(Hiromi)の追っかけ。自YouTube http://t.co/919sXWeOzk
記事検索