論文の概要: GAS-NeRF: Geometry-Aware Stylization of Dynamic Radiance Fields
- arxiv url: http://arxiv.org/abs/2503.08483v1
- Date: Tue, 11 Mar 2025 14:37:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:42:39.610964
- Title: GAS-NeRF: Geometry-Aware Stylization of Dynamic Radiance Fields
- Title(参考訳): GAS-NeRF:動的放射場の幾何学的スティル化
- Authors: Nhat Phuong Anh Vu, Abhishek Saroha, Or Litany, Daniel Cremers,
- Abstract要約: GAS-NeRFは動的放射場における関節外観と幾何学的スタイル化のための新しいアプローチである。
本手法では, 深度マップを用いて幾何学的詳細情報を抽出し, 放射場に転送し, その後, 外観伝達を行う。
- 参考スコア(独自算出の注目度): 46.11580764915792
- License:
- Abstract: Current 3D stylization techniques primarily focus on static scenes, while our world is inherently dynamic, filled with moving objects and changing environments. Existing style transfer methods primarily target appearance -- such as color and texture transformation -- but often neglect the geometric characteristics of the style image, which are crucial for achieving a complete and coherent stylization effect. To overcome these shortcomings, we propose GAS-NeRF, a novel approach for joint appearance and geometry stylization in dynamic Radiance Fields. Our method leverages depth maps to extract and transfer geometric details into the radiance field, followed by appearance transfer. Experimental results on synthetic and real-world datasets demonstrate that our approach significantly enhances the stylization quality while maintaining temporal coherence in dynamic scenes.
- Abstract(参考訳): 現在の3Dスタイリング技術は主に静的なシーンに焦点を当てていますが、私たちの世界は本質的に動的で、動くオブジェクトや環境の変化に満ちています。
既存のスタイル転送手法は主に、色やテクスチャ変換などの外観をターゲットにしているが、完全で一貫性のあるスタイル化効果を達成するのに不可欠であるスタイル画像の幾何学的特徴を無視することがしばしばある。
これらの欠点を克服するために、動的放射場における関節外観と幾何学的スタイル化のための新しいアプローチであるGAS-NeRFを提案する。
本手法では, 深度マップを用いて幾何学的詳細情報を抽出し, 放射場に転送し, その後, 外観伝達を行う。
合成および実世界のデータセットを用いた実験結果から,動的シーンにおける時間的コヒーレンスを維持しつつ,スタイライズ品質を著しく向上することが示された。
関連論文リスト
- DreamPolish: Domain Score Distillation With Progressive Geometry Generation [66.94803919328815]
本稿では,高精細な幾何学と高品質なテクスチャの創出に優れたテキスト・ツー・3D生成モデルであるDreamPolishを紹介する。
幾何構成フェーズでは, 合成過程の安定性を高めるために, 複数のニューラル表現を利用する。
テクスチャ生成フェーズでは、そのような領域に向けて神経表現を導くために、新しいスコア蒸留、すなわちドメインスコア蒸留(DSD)を導入する。
論文 参考訳(メタデータ) (2024-11-03T15:15:01Z) - StylizedGS: Controllable Stylization for 3D Gaussian Splatting [53.0225128090909]
StylizedGSは知覚因子を適応的に制御する効率的な3Dニューラルスタイル転送フレームワークである。
本手法は,忠実なブラシストロークとフレキシブル制御による幾何整合性を特徴とする高品質なスタイリゼーションを実現する。
論文 参考訳(メタデータ) (2024-04-08T06:32:11Z) - DyBluRF: Dynamic Neural Radiance Fields from Blurry Monocular Video [18.424138608823267]
動きのぼかしに影響を受ける単眼ビデオから鋭い新しいビューを合成する動的放射場アプローチであるDyBluRFを提案する。
入力画像中の動きのぼかしを考慮し、シーン内のカメラ軌跡とオブジェクト離散コサイン変換(DCT)トラジェクトリを同時にキャプチャする。
論文 参考訳(メタデータ) (2024-03-15T08:48:37Z) - S-DyRF: Reference-Based Stylized Radiance Fields for Dynamic Scenes [58.05447927353328]
現在の3Dスタイリング手法は、現実世界の動的な性質に反する静的なシーンを想定することが多い。
本稿では,動的ニューラルネットワークのための参照型時間スタイリング手法であるS-DyRFを提案する。
合成と実世界の両方のデータセットを用いた実験により,本手法が有意なスタイリング結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-03-10T13:04:01Z) - Geometry Transfer for Stylizing Radiance Fields [54.771563955208705]
幾何学的変形を利用した3次元トランスファー手法であるGeometry Transferを導入する。
実験の結果,幾何変換はより広範かつ表現力に富んだスタイリゼーションを可能にすることがわかった。
論文 参考訳(メタデータ) (2024-02-01T18:58:44Z) - Dynamic Point Fields [30.029872787758705]
本稿では,明示的な点ベースグラフィックスの表現的利点と暗黙的な変形ネットワークを組み合わせた動的点場モデルを提案する。
我々は,その表現力,学習効率,および配布外小説のポーズに対する堅牢性の観点から,我々の動的点場フレームワークの利点を示す。
論文 参考訳(メタデータ) (2023-04-05T17:52:37Z) - NeRF-Art: Text-Driven Neural Radiance Fields Stylization [38.3724634394761]
簡単なテキストプロンプトで事前学習したNeRFモデルのスタイルを操作するテキスト誘導型NeRFスタイリング手法であるNeRF-Artを提案する。
本手法は, シングルビューのスタイリゼーション品質とクロスビューの整合性の両方に関して, 有効かつ堅牢であることを示す。
論文 参考訳(メタデータ) (2022-12-15T18:59:58Z) - Real-time Deep Dynamic Characters [95.5592405831368]
本研究では,高度にリアルな形状,動き,ダイナミックな外観を示す3次元人物モデルを提案する。
我々は,新しいグラフ畳み込みネットワークアーキテクチャを用いて,身体と衣服の運動依存的変形学習を実現する。
本モデルでは, 運動依存的表面変形, 物理的に妥当な動的衣服変形, および映像現実的表面テクスチャを, 従来よりも細部まで高レベルに生成することを示す。
論文 参考訳(メタデータ) (2021-05-04T23:28:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。