2017年06月14日

Maya2017 Update4リリースのお知らせ

Maya2017 Update4がリリースされました。

新機能はこちら
http://help.autodesk.com/view/MAYAUL/2017/JPN/?guid=GUID-E01F8CAA-A058-44A0-BE7A-F81573C78B19

リリースノートはこちら
https://knowledge.autodesk.com/sites/default/files/Maya_2017_Update4_Readme_jpn.html

Maya 2017 Update 4 の API の新機能
http://help.autodesk.com/view/MAYAUL/2017/JPN//?guid=__files_GUID_29A84CF5_105A_49B0_8F12_918B5C55EF7B_htm


Autodesk Accountよりダウンロードが可能です。


borndigital at| 10:07|Permalink
2017年06月14日

GoZ Plugin for Zbrush (Beta) が利用可能になりました。

001


SideFXよりZBrushとHoudiniをつなぐGoZ Plugin for Zbrush (Beta)がリリースされました。
Webサイトよりダウンロードが可能です。

https://www.sidefx.com/tutorials/goz-plugin-for-zbrush/


borndigital at| 09:56|Permalink
2017年06月02日

Redshiftユーザー事例 ”WARMACHINE Animated Short”


WARMACHINE Animated Short from Rafael Z. Chies on Vimeo.



3つのTitanX(Maxwell)GPUを装備した1台のマシンにてRedshiftレンダラを使用して、ムービー全体をレンダリングしたとのことです。

https://www.redshift3d.com/forums/viewthread/12636/
※Redshiftフォーラムを閲覧するには、アカウントでログインする必要があります。
アカウントは誰でも無料で作成できます。


borndigital at| 11:54|Permalink
2017年06月02日

ニール・ブロムカンプ氏の短編映画スタジオ”Oats Studios”にてRedshiftが採用



RedshiftのFacebookによってニール・ブロムカンプ氏の短編映画スタジオ”Oats Studios”にてRedshiftが使用されていることが発表されました。




””映画監督のニール・ブロムカンプ氏(Neill Blomkamp)は、2006年に一連の他にはないSF短編を発表しました。 そのうちの1つ「Alive in Joburg(邦題:アライブ・イン・ヨハネスブルグ)」を元にしてブロムカンプ氏自身によって非常に有名な「第9地区」が作成されました。

過去10年間においてビジュアル的に最も印象的な映画「エリシウム」と「チャッピー」等を作成した後、ブロムカンプ氏は、実験的な映画会社Oats Studiosの発表とともに短編映画の原点に帰っています。

Oats Studiosで働くRedshift Forumユーザーajoshi氏は、Redshiftが大量のCGをレンダリングするために使用されていることを発表しました。ティーザートレイラーからすれば、Oats Studiosはビジュアル的に素晴らしい短編映画の唯一無二のメーカーになるでしょう。””

https://www.redshift3d.com/forums/viewthread/12610/

Redshiftフォーラムを閲覧するにはアカウントが必要です。
アカウントは誰でも自由に作成することが可能です。


borndigital at| 11:47|Permalink
2017年06月01日

Amaterasuプラグイン機能追加、更新のお知らせ!


「CG Pro Insights」たっきゅんのガチンコツール開発部 Maya Python 101の著者である伊藤さんが作成されているMaya用プラグイン「Amatersu」の機能アップデートが行われました!!!

001


Amaterasuウェブサイトはこちら

ダウンロードにはボーンデジタルサポートサイトパスワードが必要です。
待望の機能追加もございますのでぜひチェックいただければ幸いです。

伊藤さんありがとうございます!

<新規ツール>
Reorder
 選択した順番で、Outlinerの並び順を変更できるツールを追加しました。
X-Ray Per Mesh
 選択したポリゴン・NURBSの、X-ray表示をON/OFFできるツールを追加 しました。(Gurenからの復刻)
Extract Face Per Material
 選択したポリゴンのファセットアサインされたマテリアルごとに分割できるツールを追加 しました。 (Gurenからの復刻)
Select Each Nth Edges
 選択したエッジをN個飛ばしで選択できるツールを追加 しました。

<修正ツール>
Stocker
 新規タブを作った時に、新しいタブに切り替わるようにしました。
 タブをダブルクリックすると、タブ名をリネームできるようになりました。
Renamer
 メニュー「Tool」に「Normalize Shape Name」を追加 しました。
 「〜〜〜Shape」となっていないShape名を正規化します。
Joint Editor
 Transform、Joint Orientをロックし非表示にするボタンを追加 しました。
 Transform、Joint Orientをアンロックし表示にするボタンを追加 しました。
 末端のジョイントを選択するボタンを追加 しました。
 メニューに「Display」を追加し、以下のMaya機能のショートカットを追加 しました。
 Joint Size...
 IK/FK Joint Size...
 IK Handle Size...
 Joint Labels


borndigital at| 11:17|Permalink
2017年05月31日

Houdini COREで髪の毛をスタイリング!

Houdini CORE半額キャンペーンも本日で終了!
まだ間に合います!

CGINから半額キャンペーンを購入することもできますので、ぜひご検討いただければ幸いです。
゙(*・・)σ【】ぽちっとな♪

http://cgin.jp/index.php?dispatch=products.view&product_id=12214

昨日Houdini16のHairをご紹介したところ、カーブから髪の毛はスタイリングできないのかという質問がありました!

そこで、多喜さんのお力もおかりしてカーブを使用して髪の毛を作成する方法をご紹介いたします!

こんな感じでカーブを作成しました。
すいません、時間がなくてスタイリングカーブにはなっていません・・・。
カーブをガイドにしてヘアーを作成する方法なので、ご容赦ください。

001


上記の場合、ジオメトリ上にポイントを生成して、そこにカーブを複製するようにしています。
後でガイドカーブの数を変えたくなった場合ようです。
でも実際に、モデリングしたジオメトリからカーブを抽出してスタイリングカーブを作成する場合はこんな設定は必要ありません。

Add HairでHairを追加します。
これで、Guide GroomノードとHair Generateノードが生成されます。

Guide Groomの内部に入ります。

005


Object mergeノードを作成し、そこにカーブデータを読み込みます。

それをGuideのOutputに接続してください。

003


Hair Genを表示すると

006


ガイドカーブにしたカーブにそってもじゃっと生えてる〜〜〜!!

DistributionとGuide Interporationでガイドを参照して毛を生やすオプションを調整します。

007


Hair GenにClumpを追加し、ClumpにGuideを接続すると、ガイドにそって束になっていくように作成できます。

008


めちゃくちゃ操作がわかりやすい!!!!!

こんな感じの髪型も作成できるそうです!
009


https://youtu.be/pLJAvoAFj7s?t=13m40s

もちろんCOREでも組み込みのシミュレーションを追加できるので、Guideカーブから作成した髪の毛に風やアニメーションによる2次モーション的なものを与えることも可能です!

そして、RedshiftでLookDev。

001


002


004


迅速に結果を確認できるので、HoudiniCore+RedshiftでLookDevかなりいいですね!

今後HairはぜひHoudini Coreで!

ご参考になれば幸いです。








borndigital at| 16:00|Permalink
2017年05月30日

Houdini COREで髪の毛を作成、シミュレーション!

Houdini COREキャンペーン終了まで今日をいれてあと2日ですね!
半額キャンペーンは本当にお得でかつてない割引っぷりですよ!

008



Houdini COREでやってみようシリーズ第2弾はヘアーです。

Houdini 16で追加されたヘアーはSOPベースです。
そのため、Houdini COREで作成できることはみなさん知っているかもしれません。

でも!!ヘアーシミュレーションをHoudini COREで出来ることもご存じでしょうか?

ヘアーを作成して

001


Hair UtilシェルフにあるSimulationを実行すると・・・

002


ばばーんとGuide Simulateノードが作成されます。
再生すると・・・!ちゃんとシミュレーションが実行されます。

003


このGuide Simulateノードには最初からいくつかのフィールドなどをパラメーターが追加されており、これを使用してHoudini COREでもヘアーシミュレーションができるようになっています。

006


009


Houdini 16 HAIR AND FUR MASTERCLASS


リアルタイム用ヘアーデモのムービー!(こちらはH16のヘアではありません)
Hair FX In Houdini - GDC 2017 Talk

Hair FX In Houdini - GDC 2017 Talk from Saber Jlassi on Vimeo.









borndigital at| 11:33|Permalink
2017年05月29日

Nuke-プラグインGeoTracker製品版リリース

オブジェクトベースのトラッキングプラグインKEEN TOOLSの製品版がリリースされました。

https://www.keentools.io/


GeoTracker Beta. Demo from keen on Vimeo.





トライアル版やデモシーンはnukepediaでダウンロード可能です。
http://www.nukepedia.com/


hatakeyama_chihaya at| 20:26|Permalink
2017年05月26日

あなたのスマホがマテリアルスキャナーになる

原文:YOUR SMARTPHONE IS A MATERIAL SCANNER

001



マテリアルスキャナとしてのスマートフォンの使用


こんにちは、私の名前はAnthony Salvi、AllegorithmicのCreative Technologistです。 今日は、スマートフォンカメラを使ってマテリアルを取り込む方法を紹介します。 Substance Designer 6で新しいスキャンフィルタを使用すると、スマートフォンをマテリアルスキャナに変換することができます。

このblogpostで達成できる結果は次のとおりです。




まず初めにに、品質とコストの適切なバランスを見つけることが重要です。 コストの部分については、段ボール箱、トレーシングペーパーの束、照明設定用のLEDライトを使用します。 イメージキャプチャのために、可能な限り最善のプロセスを使用してみたいので、我々のテストでは、Adobe LightroomモバイルアプリケーションでiPhone 6とiPhone 7をカメラとして使用しました。

このアプリはiOSとAndroidでRAW(非圧縮)形式でキャプチャすることができます。 Adobe Lightroomには、完全にマニュアルでの撮影やハイダイナミックレンジモードなどの非常に優れた機能もあります。 しかし、App StoreのProCamやAndroid用のCamerafv5などの他のアプリを見つけることもできます。

Substance Designer6で、我々は8つの入力が可能なMulti-angle to Normalという名前の新しいフィルタを持っています。 フィルタを使用するには、45°の角度で8枚の画像を作成する必要があります。




イメージキャプチャのプロセスを理解するために、マテリアルをはるかに大きなスケールで想像することができます。 私たちのマテリアルを山の大きさだと考えましょう。 このサイズでは、ライトは太陽で表すことができます。 太陽が山の周りを回ると、影の形が黒く投影されます。 これらの形は、山自体の起伏に関する間接的な情報を表しています。 十分な情報、少なくとも4つの画像(よりよい結果を得るために8を使用)を組み合わせると、アルゴリズムは起伏を計算することができます。



このプロセスは簡単です。 私たちは、マテリアルの周りを同じ距離でライトを8回回転させるだけです。




Gear

手助けとして、8つの角度でシートに円を描くことができます。 このリンクからテンプレートをダウンロードできます。

チャートの改善として、マテリアルへのLEDライトからの照明バウンスなくすために色を黒に変えます。 その後、8角でいくつかの形(正方形、三角形、月形、星形など)を追加します。これは後処理で便利です。 これらの図形は、Adobe Photoshopでの処理で使用されます。 Photoshopは、迅速かつ正確な写真合成処理を作成するのに役立ちます。

最後に、中央に10cm×10cm四方の正方形を描き、不透明度撮影のための穴をあけます。



次に、スキャンボックスを作成します。 ボックスはできるだけシンプルに、ですが、マテリアルの不透明度をキャプチャする能力を保持することは非常に重要です。 不透明度をキャプチャするには、ボックスの中央に正方形の穴(10cm x 10cm)をあけて、6枚のトレーシングペーパーを積み重ねて、マテリアルの中に光を拡散させます。さらに、チャートの上に最後のシートを置きます。 以下の画像で見ることができます:




同様に、箱の内側にLEDライトを入れるための穴も忘れずにあけます。

セットアップ終了後、コスト削減として、スマートフォン用スタンドを作成するためにフォームコアプレート付きのシンプルなボール紙の筒を使用しました。 スタンドサイズの最終形状を最大にするために、スタンドサイズはボックスのサイズに合わせて調整します。 円筒からの潜在的な色のバウンスをすべて除去するために、黒い紙のシートを追加しました。 最後に、スマートフォンを4つのテープで設置します。



これはスキャンボックスとスタンドの最終的な設定です。 スタンドは三脚のように安定していないので、手に持つ必要があります。



キャプチャ中に、ライトからのカラーシフトを中和することは非常に良いアイデアです。本質的に、すべてのライトには、他のものよりも強い色合いを持ちます。 たとえば、ろうそくは赤、タングステン球はオレンジ、空は青です。この色を中和して色の一貫性を保つには、ColorCheckerが必要です。 基本的には、グレースケールを印刷して較正したリファレンスです。

ポストプロダクションでの目標は、取り込まれたグレー色を調整して純粋なグレーとして保持することです。 この製品に関する詳しい情報は、こちらおよびこちらをご覧ください。

LEDはManfrottoによって設計され、バランスの取れた昼光を作り出します。



これは私たちのツールボックスです:
- 多角形の段ボール箱
- 段ボールスタンド
- LEDライト+三脚+紐
- ColorChecker
- マイクロファイバー布


写真撮影


私たちの目標は革と複雑な布の2つのマテリアルを取り込むことです。 マテリアル上に見える単一の光はLED光のみであることを確認する必要があります。 そうでない場合、影の投影が間違っている可能性があり、Substance Designerの後処理で誤った計算が行われます。 そのため、窓やカーテンを閉めて部屋を暗くし、周囲の光をできるだけ除去し、LEDライトを点灯させてください。 次に、箱にマテリアルを置きます。



マテリアルが小さな形状(正方形、三角形、月、星、またはあなたが使用しているもの)をカバーしていないことを確認してください。 そして、ほこりや髪がマテリアルに落ちている場合があるので、サンプルをきれいにしてください。 最も重要なことは、撮影中にマテリアルサンプルを動かさないことです! マテリアルが移動した場合、写真の合成は正しく行うことができません。



紐がLEDライトに取り付けられています。 我々は、LEDライトとボックス上の円の周りにあるチャートポイントの間の計量ガイドとして、紐の結び目を使用します。

最も重要な角度は高度です。 以下のグラフを参照してください。



角度が小さすぎると、投影された影が長すぎる可能性があり、これらの影部分で情報が失われる可能性があります。 その結果は、より暗い領域で色の変化の少ない誤った法線マップ計算になってしまう可能性があります。



トリックは、情報を保持するための角度を見つけて、良い結果のために十分な影を与えることです。

今度はカメラで作業しましょう。 レンズをきれいにします。 スマートフォンはあまり綺麗な状態ではありません。 マイクロファイバーの布でレンズをきれいにするには5秒かかります。

Adobe Lightroomモバイルでは、PROモードを使用して手動でショットを設定したり、HDRモードを使用することができます。 どちらも良い結果をもたらします。

PROモードでは、フラッシュをオフにし、DNGフォーマットを有効にし、ISOをできるだけ低く設定し(25〜100)、ホワイトバランスを昼光に設定します。 画像のモーションブラーを避けるために、約1/50秒のシャッタースピードにして、ISOを適合させて適切な露出を得るようにしてください。



こちらでは、モバイル向けAdobe Lightroomの使用に関する詳細とチュートリアルをご覧いただけます。

別のオプションとして、HDRモードを使用して、[非圧縮オリジナルを保存]オプションを有効にすることです。 この設定では、元のdngファイルと計算された "HDR" dngの両方を保持することができます。



ショットを決めるためのグリッドとレベルを画面に追加すると便利です。 タイマーを5秒間追加して、イメージをキャプチャするためのリモートトリガとして機能させることもできます。 これにより、カメラのシャッターボタンに手で触れることで不注意に手ぶれが加わり、手ぶれ画像が生成される可能性をなくし、より安定した結果が得られます。




Adobe Creative Cloudアカウントをお持ちの場合、Adobe Lightroomデスクトップライブラリに画像を読み込むことができます。

こちらは、コンテンツのインポートに関するチュートリアルです。

一度すべてが設定しましたら、次はマテリアルをキャプチャする時間です。 LEDの照明パワーを最大に設定します。 十分なバッテリー電力(スマートフォンとLEDライト)があり、LEDライトが高温になりすぎないよう確認してください。 撮影中は、できるだけ同じフレーミングを維持することが重要です。 しかし、写真が完全に整っていない場合でも、慌てないでください。 チャート上のすべての図形(四角形、三角形、月、星など)を画像に表示することが重要です。



次は同じLEDライトの下でColorCheckerをリファレンスとして撮影します。



8枚のマテリアルショットと1枚のカラーリファレンス画像を撮影した後、さらに3枚の画像を撮影します。 1つはカラー用、もう1つは新しいホワイトバランス用、もう1つは不透明(ファブリック用)です。

カラー用には柔らかく拡散した照明が必要です。 我々のケースでは、窓からの間接光を使用し、アルミホイルにバウンスさせました。 完璧ではありませんが、良いベースとなります。 もちろん、この照明に更にオプションを追加しましたが、この設定が私たちの場合では最も簡単でした。



ポストプロダクションで色補正を設定するために新しいColorCheckerを撮影することを忘れないでください。



不透明度用には、部屋のカーテンを開き、LEDライトをボックス内に設置します。 低消費電力のLEDライトで、不透明度を捕捉するのに十分なバックライトとなります。



より良い光の拡散のために、内側に白い紙を追加して、スキャンボックスの中央にライトを置くことも可能です。穴の開いたフォームコアプレートが良い感じに動作します。



ここまでで8つの角度、カラー、不透明度、2つのColorChecker画像ができました。 次に、Adobe Lightroom Desktopで画像を読み込みます。 Adobe Creative Cloudを有効にすると、すべての画像がハードドライブに保存されます。

私たちの場合、 "HDR" dngファイルを使用しましたが、説明したように、PROモードのdngファイルも良い結果をもたらします。 ColorChecker画像では、通常のdngファイルを保存します。



LEDライトのColorCheckerイメージを選択し、ホワイトバランスツールを使用しましょう。

次に、Whites、Blacks、Clarityの各パラメータを0に設定し、最後にパラメータの値をコピーして8つの角度画像に貼り付ける必要があります。



デイライトでのColorCheckerイメージに対するこのプロセスを繰り返し、色用と不透明度用画像に新しい値を適用できます。 また、Whites、Blacks、Clarityのパラメータを0に設定します。

不透明用画像の場合、Lightroomのグラデーションツールを使用して、ビネットエフェクトを削減できるかもしれません。



最後のステップとして、Adobe 1998 ICCプロファイルを使用して、すべてのイメージをTIFF 16bit形式でエクスポートしました。



私たちの電話スタンドはシンプルで安価でしたが、あまり効率的ではありません。 しかし、これは問題ではありません。 Adobe Photoshopでphotomerge機能を使用すると、イメージをマージして整列させることができます。 あなたの写真をphotomergeにロードし、Blend Images Togetherオプションのチェックを外してください。

その後、レイヤースタックの一番下に黒色のレイヤーを追加し、画像を四角形にトリミングし、4096ピクセルにリサイズします。



最後に、レイヤーを削除するオプションを使用してレイヤーを新しいTIFFファイルにエクスポートします。


Substance Designerでのシームレスなマテリアル作成

革マテリアルについては、4096x4096に設定された物理ベース(メタリック/ラフネス)テンプレートを使用して新しいSubstanceを作成しました。 その後、写真をプロジェクトにリンクしました。

最初のノードはMulti Cropです。 マテリアルの対象とする画像の領域を選択すると便利です。 クロップは、タイリングが困難な場合には重要です。 しかし、プロシージャルアプローチでは、より良いタイリングのために異なるクロップを簡単にテストすることができます。 その後、Multi Color Equalizerを使用してイメージをクリーンにして、最後にMulti-Angle to Normalノードを使用してノーマルマップを生成しました

alt="" title="" />





私たちは、カラー画像を追加し、私たちのMulti Crop ノードをコピー&ペーストし、1へのinput Counを1に設定します。

Color Equalizerノードを使用すると、明るい部分と暗い部分のバランスを取って、マテリアルのカラーマップを作成することができます。





今度はタイリング部分を修正します。 新しいSmart Auto Tileノードを使用すると、シームレスなマテリアルを素早く作成できます。 可能な限り最良の結果を得るためパターンを移動、回転、変換するのをためらわないでください。



詳細はこちらでチュートリアルをご覧ください。

新しいColor Matchノードは、すべての詳細を保持しながら革の色を変更するのに最適です。これは、初期のカラーキャプチャデータとブレンドする利点とともに、無限の多様なカラーオプションを提供します。



Specular Levelはリアルな結果を得るために不可欠です。 Metallic / Roughnessの定義では、Metallicが0に設定されているとき、材料は誘電体であると理解され、フレネルゼロ角度またはf0での反射率値は反射率4%に設定されます。 これはほとんどの一般的な誘電体マテリアルで機能しますが、一部の誘電体では屈折率やIORが異なる場合があります。 Specular Level を使用して、Metallic/Roughness定義で使用されるデフォルトの4%値をオーバーライドすることができます。 ここでは革なので、Specular Levelを使用して川マテリアルのカスタムレベルを設定できます。

このチャンネルを駆動するには、新しい出力ノードを追加し、usageとidentifierをspecularLevelに設定します。 次に、Grayscale モードでUniform Colorノードを使用して値を調整します。 60の値が、革の良いスタートとなります。





Heightマップでは、Normal to Height HQノードを使用し、quality をHighに設定しました。




最後に、Roughnessの作業を行い、Heightマップとバンプの間で2つの値を駆動しました。



より簡単な設定はMetallicチャンネルです。 Grayscaleが0に設定されたUniform Colorノードを追加するだけです。



これらのいくつかのステップの後、最終的に完全なグラフができあがります。



私たちの革のサンプルはかなりマットだったので、いくつかのテスト後、私たちは革に対する良い値を見つけました:)


布マテリアルの作成

不透明チャンネルを除いて、同じSpecular Level出力を60に設定しプロセスは非常に良く似ています。


 
Color EqualizerとColor to Maskノードを使用して、マテリアルの不透明マスクを適切に制御できます。 次に、UsageとIdentifier が不透明に設定されたOutput ノードを追加するだけです。









Smart Auto Tileを使用した場合の1つの注意点は、不透明度入力がないことです。 この問題を回避するには、不透明度をHeight入力に接続し、不透明度チャネルとしてHeight出力を使用します。



革と同様、Color Matchノードを使用して、スキャンしたマテリアルを複数のカラーオプションを持つハイブリッドマテリアルに簡単に変換できます。







もちろん、カラー画像も使用できます:)



そして最後に、完全なグラフができました:




結論

このプロセスの最後には、スマートフォンでスキャンしPBRパイプラインで使用できるように2つのハイブリッドマテリアルが用意されています。 全てのSubstanceと画像はこのリンクから入手できます。

マテリアルの設定で楽しむことを恐れずスキャンプロセスで冒険してみてください。 次にマテリアルリファレンスが必要な場合は、スマートフォンをつかんで独自のスキャンボックスを作って、Substance Designer 6で楽しんでください!


もう一つ

フォトグラメトリに関する以前のブログ記事では、特定の事例を紹介しました。 しかし、Substance Designer 6では、フォトグラメトリマップを単一のタイルマテリアルに簡単に変換できます。

フォトグラメトリは本当に面白いですが、それマテリアルがあなたのオブジェクトに依存していることを意味します。 たぶんあなたはより多彩なものを望んでいるでしょう。 幸いなことに、Substance Designer 6では、フォトグラメトリマップを単一のタイリングマテリアルに簡単に変換できます。 このステップの後、あなたのマテリアルはどのメッシュでも使用可能になります。



alt="" title="" />

作業は3つの簡単なステップで行われました:

1.Substance Painterから出力されたマップで、良い領域を切り取ります。

2.Smart Auto tileノードでタイルにします。

3.Color Matchノードでカラーのバランスをとって、カラーバリエーションを削除/平滑化します。


(8k ワークフロー)

そして、単純なシリンダー上にこのテクスチャを適用し、その樹皮を確認できます:)

ここでSubstanceファイルと画像を見つけることができます。



ご覧のとおり、Substance Designer 6では、これらの新しいスキャンノードに複数の用途があります。

この記事は興味をもっていただき、Substance Designer 6で何が達成できるかについてのより多くのアイデアを提供してくれることを願っています!


borndigital at| 16:43|Permalink
2017年05月25日

Houdini CORE+RedshiftでPyroFXのLookDevをしよう!

Houdini COREはHoudini FXと何が違うのか?

002


簡単にいうとダイナミクス系ノードを作成することができません。

プロダクト別機能比較一覧はこちら>>

しかし!!!!

Houdini COREでもHoudini FXで作成したシーンファイルをロードすることがもちろんできます!
そして、パラメータの編集はできないのですが、マテリアルやライティングを追加してセットアップはできてしまうのです。

ということで、さっそくやってみましょう。

まずはHoudiniFXを起動し、Pyro FXシェルフからExplosionを作成してみました。
003


そしてこのシーンを保存します。

次に、Houdini COREで先ほど作成したシーンを読み込みます。
004


作成したシーンが問題なく開き、Pyroによる爆発も作成されます。
ノードを確認することができますが、パラメーターは変更できないようにグレーアウトされています。
005


では、ここでRedshiftを使用して、マテリアル設定とライトの追加を行ってみましょう。

RedshiftはHoudini Volumeをそのままレンダリングすることができます。
今回もPyroをそのままレンダリングします。

ここからの作業はすべてHoudini COREで行います。

Pyro Importを選択して、Redshift Object Parameterを追加します。

006


Pyro ImportノードにRedshift OBJタブが追加されます。
007


VolumeタブでVolume Enableをオンにして、Volume/VDB Houdini Objectを選択します。

008


つぎに/matに移動し、rs material builderを作成してください。
009


rs material builderをダブルクリックして中にはいり、rs Volumeを作成し、redshift_materialのVolumeと接続します。
011


rs Volumeノードのプロパティで、Scatter(散乱)とEmission(放射)にVolumeのどのチャンネルを使用するのか設定する必要があります。

Scatterは拡散、Absorptionは吸収(透明度のような感じ)、Emissionは自己発光となるのでそれにあったチャンネルを設定します。

ここでは、Scatterにdensity(密度)、Eimssionにheatを設定しました。
012


次にredshift_vopnetのマテリアルフラグを有効にします。
013


これでボリュームデータにこのマテリアルをアサインできます。

pyro_importノードを選択しRenderタブのMaterialで作成したredshift_vopnetを割り当ててください。014


一度レンダリングするために/outで、redshift_IPRとredshift_ROPを作成します。

015


redshift_ROPのIPRタブでIPR Progressive renderingをオフにします。
019


レンダリングしてみました。もやっとします。
016


これはScatterやEmissionの設定が初期状態のためもやっとした白い何かがレンダリングされました。
マテリアルを設定するために、シーンにrs_domelightを追加します。
ShaderタブのDome Mapに使用するHDR画像を設定してください。

017


このままだとVolumeオブジェクトにライトの影響がでないのでlightタブでVolumeのContribution Scaleを1.0にします。

020



次にrs_Volumeを調整していきます。

一旦、Emissionチャンネルを空欄にします。
ScatterとAbsorptionの設定を行いましょう。

Scatter Coefficientを10に設定して、ボリュームを明るくします。
Absorption Coefficientを上げると、より不透明になるので、こちらを5に設定します。
021


Emissionに再度heatチャンネルを選択し、ランプを調整します。これが自己発光したエフェクトになります。
022


Redshiftは、GPUを対応したものを使用していれば非常に高速にレンダリングチェックが可能です。
Pascal世代がベストです。あまりにも旧世代のGPUだと(Quadro4000とか)Redshiftは効力が発揮できません。

Redshiftとハードウェアに関してはこちらの資料をチェックして下さい。

https://support.borndigital.co.jp/hc/ja/articles/115007799288

Redshiftで下記レンダリングが2秒(GTX1080*3)でレンダリングできちゃうので、色んなバージョンを思う存分試せますね!

025


爆発のLookdevをHoudini COREでやればライセンスも節約になります。
すごいぞHoudini CORE!
この価格でいろいろできちゃう!!!

Houdini COREの50%オフは5月31日まで!
Houdini FXじゃなくても、Houdini COREでもいろいろなことができます!

026


ということで、Houdini CORE+Redshiftの宣伝でした!

吉田



borndigital at| 18:50|Permalink