論文の概要: Ref-NPR: Reference-Based Non-Photorealistic Radiance Fields
- arxiv url: http://arxiv.org/abs/2212.02766v1
- Date: Tue, 6 Dec 2022 05:32:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 16:50:42.253542
- Title: Ref-NPR: Reference-Based Non-Photorealistic Radiance Fields
- Title(参考訳): Ref-NPR:参照ベース非フォトリアリスティック放射場
- Authors: Yuechen Zhang, Zexin He, Jinbo Xing, Xufeng Yao, Jiaya Jia
- Abstract要約: Ref-NPRは、放射場を利用して3Dシーンをスタイリングする制御可能なシーンスタイリング手法である。
そこで本研究では,新しい視点における擬似光線監視を実現するために,スタイリングされた参照ビューに基づく光線登録プロセスを提案する。
実験の結果,Ref-NPRは視覚的品質と意味的対応の両面で,他のシーンや映像のスタイリング手法よりも優れていた。
- 参考スコア(独自算出の注目度): 43.75525466345655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing 3D scene stylization methods employ an arbitrary style reference to
transfer textures and colors as styles without establishing meaningful semantic
correspondences. We present Reference-Based Non-Photorealistic Radiance Fields,
i.e., Ref-NPR. It is a controllable scene stylization method utilizing radiance
fields to stylize a 3D scene, with a single stylized 2D view taken as
reference. To achieve decent results, we propose a ray registration process
based on the stylized reference view to obtain pseudo-ray supervision in novel
views, and exploit the semantic correspondence in content images to fill
occluded regions with perceptually similar styles. Combining these operations,
Ref-NPR generates non-photorealistic and continuous novel view sequences with a
single reference while obtaining reasonable stylization in occluded regions.
Experiments show that Ref-NPR significantly outperforms other scene and video
stylization methods in terms of both visual quality and semantic
correspondence. Code and data will be made publicly available.
- Abstract(参考訳): 既存の3dシーンスタイライゼーション手法では、テクスチャや色をスタイルとして表現するために任意のスタイル参照を用いる。
Ref-NPR(Reference-based Non-Photorealistic Radiance Fields)を提案する。
輝度場を利用して3dシーンをスタイライゼーションし、単一のスタイライゼーションされた2dビューを基準とした制御可能なシーンスタイライゼーション方法である。
そこで本研究では,スタイライズド・リファレンス・ビューに基づく被写体登録プロセスを提案し,新たな視点で擬似線監督を得るとともに,コンテンツ画像における意味対応を利用して知覚的に類似したスタイルで没入領域を満たす。
これらの操作を組み合わせることで、Ref-NPRは非フォトリアリスティックかつ連続した新規なビューシーケンスを単一の参照で生成する。
実験の結果,Ref-NPRは視覚的品質と意味的対応の両面で,他のシーンや映像のスタイリング手法よりも優れていた。
コードとデータは公開される予定だ。
関連論文リスト
- Reference-based Controllable Scene Stylization with Gaussian Splatting [30.321151430263946]
コンテンツアラインな参照画像に基づいて外観を編集する参照ベースシーンスタイリングは、新たな研究領域である。
参照型スタイリゼーションに3Dガウススティング(3DGS)を適用し,リアルタイムなスタイリゼーションを実現するReGSを提案する。
論文 参考訳(メタデータ) (2024-07-09T20:30:29Z) - S-DyRF: Reference-Based Stylized Radiance Fields for Dynamic Scenes [58.05447927353328]
現在の3Dスタイリング手法は、現実世界の動的な性質に反する静的なシーンを想定することが多い。
本稿では,動的ニューラルネットワークのための参照型時間スタイリング手法であるS-DyRFを提案する。
合成と実世界の両方のデータセットを用いた実験により,本手法が有意なスタイリング結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-03-10T13:04:01Z) - Locally Stylized Neural Radiance Fields [30.037649804991315]
局所的なスタイル伝達に基づくニューラルレイディアンスフィールド(NeRF)のスタイリングフレームワークを提案する。
特に、ハッシュグリッド符号化を用いて外観や幾何学的要素の埋め込みを学習する。
提案手法は, 新規なビュー合成により, 可視なスタイリゼーション結果が得られることを示す。
論文 参考訳(メタデータ) (2023-09-19T15:08:10Z) - NeRF-Loc: Visual Localization with Conditional Neural Radiance Field [25.319374695362267]
暗黙の3次元記述子と変換器を用いた2次元画像との直接マッチングに基づく新しい視覚的再局在法を提案する。
実験により,本手法は,複数のベンチマークにおいて,他の学習手法よりも高い局所化精度を実現することが示された。
論文 参考訳(メタデータ) (2023-04-17T03:53:02Z) - Instant Photorealistic Neural Radiance Fields Stylization [1.039189397779466]
Instant Neural Radiance Fields Stylizationは3Dシーンのマルチビュー画像スタイリングのための新しいアプローチである。
我々のアプローチは、位置埋め込みにハッシュテーブルベースの位置エンコーダを使用するニューラルネットワークプリミティブに基づく神経放射場をモデル化する。
最新のGPUハードウェアでは10分以内で、様々な角度で一貫した外観でスタイリングされた新しいビューを生成することができる。
論文 参考訳(メタデータ) (2023-03-29T17:53:20Z) - ARF: Artistic Radiance Fields [63.79314417413371]
本稿では,任意のスタイル画像の芸術的特徴を3Dシーンに転送する方法を提案する。
点雲やメッシュ上で3次元スタイリングを行う従来の手法は、幾何的再構成誤差に敏感である。
より頑健なラディアンス場表現の体系化を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:55:31Z) - Unified Implicit Neural Stylization [80.59831861186227]
この研究は、スタイル化された暗黙の表現のトレーニングという、新しい興味深い方向性を探求する。
本研究では,2次元座標に基づく表現,ニューラルラディアンス場,符号付き距離関数など,様々な暗黙関数に関するパイロット研究を行う。
我々のソリューションは、INSと呼ばれる統一暗黙的ニューラルスティル化フレームワークです。
論文 参考訳(メタデータ) (2022-04-05T02:37:39Z) - Learning to Stylize Novel Views [82.24095446809946]
任意の視点からシーンのスタイリング画像を生成する3Dシーンスタイリング問題に取り組む。
本稿では,一貫した3次元シーンスタイリングのためのポイントクラウドベースの手法を提案する。
論文 参考訳(メタデータ) (2021-05-27T23:58:18Z) - Stylizing 3D Scene via Implicit Representation and HyperNetwork [34.22448260525455]
簡単な解決策は、既存の新しいビュー合成と画像/ビデオスタイルの転送アプローチを組み合わせることである。
ニューラルレイディアンスフィールド(NeRF)法の高品質な結果にインスパイアされ,新しいビューを所望のスタイルで直接描画するジョイントフレームワークを提案する。
本フレームワークは,ニューラルネットワークを用いた3次元シーンの暗黙的表現と,シーン表現にスタイル情報を転送するハイパーネットワークという2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2021-05-27T09:11:30Z) - IBRNet: Learning Multi-View Image-Based Rendering [67.15887251196894]
本稿では,近接ビューの疎集合を補間することにより,複雑なシーンの新しいビューを合成する手法を提案する。
レンダリング時にソースビューを描画することで、画像ベースのレンダリングに関する古典的な作業に戻ります。
論文 参考訳(メタデータ) (2021-02-25T18:56:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。