論文の概要: StyleTRF: Stylizing Tensorial Radiance Fields
- arxiv url: http://arxiv.org/abs/2212.09330v1
- Date: Mon, 19 Dec 2022 09:50:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 17:41:09.035753
- Title: StyleTRF: Stylizing Tensorial Radiance Fields
- Title(参考訳): StyleTRF:スチル化テンソル放射場
- Authors: Rahul Goel, Sirikonda Dhawal, Saurabh Saini, P. J. Narayanan
- Abstract要約: 近年,カメラで撮影するシーンのスチル化ビュー生成に注目が集まっている。
本稿では,TensoRFを用いたスタイル化ビュー生成のための,コンパクトで迅速な最適化戦略であるStyleTRFを提案する。
- 参考スコア(独自算出の注目度): 7.9020917073764405
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stylized view generation of scenes captured casually using a camera has
received much attention recently. The geometry and appearance of the scene are
typically captured as neural point sets or neural radiance fields in the
previous work. An image stylization method is used to stylize the captured
appearance by training its network jointly or iteratively with the structure
capture network. The state-of-the-art SNeRF method trains the NeRF and
stylization network in an alternating manner. These methods have high training
time and require joint optimization. In this work, we present StyleTRF, a
compact, quick-to-optimize strategy for stylized view generation using TensoRF.
The appearance part is fine-tuned using sparse stylized priors of a few views
rendered using the TensoRF representation for a few iterations. Our method thus
effectively decouples style-adaption from view capture and is much faster than
the previous methods. We show state-of-the-art results on several scenes used
for this purpose.
- Abstract(参考訳): 近年,カメラで撮影するシーンのスチル化ビュー生成に注目が集まっている。
シーンの幾何学と外観は、通常、前作のニューラルポイントセットまたはニューラルラミアンスフィールドとしてキャプチャされる。
画像スタイリング法は、そのネットワークを構造キャプチャネットワークと協調的又は反復的にトレーニングすることにより、捕獲された外観をスタイリングする。
最先端のSNeRF法は、NeRFとスタイリングネットワークを交互に訓練する。
これらの方法は高い訓練時間を持ち、共同最適化を必要とする。
本稿では,TensoRFを用いたスタイル化ビュー生成のための,コンパクトで迅速な最適化戦略であるStyleTRFを提案する。
外観部分は、数回のイテレーションでTensoRF表現を使用してレンダリングされた少数のビューのスタイリングされたスタイリング先を用いて微調整される。
これにより,ビューキャプチャからスタイル適応を効果的に分離し,従来の手法よりもはるかに高速である。
この目的のために使われたいくつかのシーンで最新の結果を示す。
関連論文リスト
- Style-NeRF2NeRF: 3D Style Transfer From Style-Aligned Multi-View Images [54.56070204172398]
本稿では,3次元シーンをスタイリングするための簡易かつ効果的なパイプラインを提案する。
我々は、スタイル整列画像-画像拡散モデルにより生成されたスタイリング画像を用いて、ソースNeRFモデルを精細化し、3Dスタイルの転送を行う。
本手法は,現実の3Dシーンに多彩な芸術的スタイルを,競争力のある品質で伝達できることを実証する。
論文 参考訳(メタデータ) (2024-06-19T09:36:18Z) - Hyper-VolTran: Fast and Generalizable One-Shot Image to 3D Object
Structure via HyperNetworks [53.67497327319569]
画像から3Dまでを1つの視点から解く新しいニューラルレンダリング手法を提案する。
提案手法では, 符号付き距離関数を表面表現として使用し, 幾何エンコードボリュームとハイパーネットワークスによる一般化可能な事前処理を取り入れた。
本実験は,一貫した結果と高速な生成による提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-12-24T08:42:37Z) - Locally Stylized Neural Radiance Fields [30.037649804991315]
局所的なスタイル伝達に基づくニューラルレイディアンスフィールド(NeRF)のスタイリングフレームワークを提案する。
特に、ハッシュグリッド符号化を用いて外観や幾何学的要素の埋め込みを学習する。
提案手法は, 新規なビュー合成により, 可視なスタイリゼーション結果が得られることを示す。
論文 参考訳(メタデータ) (2023-09-19T15:08:10Z) - NeRF-Art: Text-Driven Neural Radiance Fields Stylization [38.3724634394761]
簡単なテキストプロンプトで事前学習したNeRFモデルのスタイルを操作するテキスト誘導型NeRFスタイリング手法であるNeRF-Artを提案する。
本手法は, シングルビューのスタイリゼーション品質とクロスビューの整合性の両方に関して, 有効かつ堅牢であることを示す。
論文 参考訳(メタデータ) (2022-12-15T18:59:58Z) - StyleTime: Style Transfer for Synthetic Time Series Generation [10.457423272041332]
本稿では,時系列リアリズム特性に直接関係する時系列のスタイル化された特徴について紹介する。
本稿では,ある時系列の下位コンテンツ(トランド)と他の時系列のスタイル(分配特性)を組み合わせるために,明示的な特徴抽出手法を用いたスタイルタイムという新しいスタイリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-22T20:42:19Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - ARF: Artistic Radiance Fields [63.79314417413371]
本稿では,任意のスタイル画像の芸術的特徴を3Dシーンに転送する方法を提案する。
点雲やメッシュ上で3次元スタイリングを行う従来の手法は、幾何的再構成誤差に敏感である。
より頑健なラディアンス場表現の体系化を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:55:31Z) - Location-Free Camouflage Generation Network [82.74353843283407]
カモフラージュ(Camouflage)は一般的な視覚現象で、前景の物体を背景のイメージに隠すことで、人間の目からは一時的に見えなくなる。
本稿では,前景と背景像の高次特徴を融合させ,一つの推論によって結果を生成する,ロケーションフリーなカモフラージュ生成ネットワーク(LCG-Net)を提案する。
実験により,本手法は単一外観領域における最先端技術と同程度に良好であり,完全に見えない可能性が低いが,多外観領域における最先端技術の品質をはるかに上回っていることが示された。
論文 参考訳(メタデータ) (2022-03-18T10:33:40Z) - Stylizing 3D Scene via Implicit Representation and HyperNetwork [34.22448260525455]
簡単な解決策は、既存の新しいビュー合成と画像/ビデオスタイルの転送アプローチを組み合わせることである。
ニューラルレイディアンスフィールド(NeRF)法の高品質な結果にインスパイアされ,新しいビューを所望のスタイルで直接描画するジョイントフレームワークを提案する。
本フレームワークは,ニューラルネットワークを用いた3次元シーンの暗黙的表現と,シーン表現にスタイル情報を転送するハイパーネットワークという2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2021-05-27T09:11:30Z) - IBRNet: Learning Multi-View Image-Based Rendering [67.15887251196894]
本稿では,近接ビューの疎集合を補間することにより,複雑なシーンの新しいビューを合成する手法を提案する。
レンダリング時にソースビューを描画することで、画像ベースのレンダリングに関する古典的な作業に戻ります。
論文 参考訳(メタデータ) (2021-02-25T18:56:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。