論文の概要: Styl3R: Instant 3D Stylized Reconstruction for Arbitrary Scenes and Styles
- arxiv url: http://arxiv.org/abs/2505.21060v1
- Date: Tue, 27 May 2025 11:47:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.615055
- Title: Styl3R: Instant 3D Stylized Reconstruction for Arbitrary Scenes and Styles
- Title(参考訳): Styl3R : 任意シーンとスタイルの即時3Dスチル化再構成
- Authors: Peng Wang, Xiang Liu, Peidong Liu,
- Abstract要約: 現在の最先端の3Dスタイリング手法は、通常、あらかじめ訓練された表現に芸術的特徴を移すために、計算的に集中的なテスト時間最適化を伴っている。
提案手法は,スパースシーン画像と任意のスタイル画像を用いて,1秒未満で直接3Dスタイリングを実現する手法である。
- 参考スコア(独自算出の注目度): 10.472018360278085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stylizing 3D scenes instantly while maintaining multi-view consistency and faithfully resembling a style image remains a significant challenge. Current state-of-the-art 3D stylization methods typically involve computationally intensive test-time optimization to transfer artistic features into a pretrained 3D representation, often requiring dense posed input images. In contrast, leveraging recent advances in feed-forward reconstruction models, we demonstrate a novel approach to achieve direct 3D stylization in less than a second using unposed sparse-view scene images and an arbitrary style image. To address the inherent decoupling between reconstruction and stylization, we introduce a branched architecture that separates structure modeling and appearance shading, effectively preventing stylistic transfer from distorting the underlying 3D scene structure. Furthermore, we adapt an identity loss to facilitate pre-training our stylization model through the novel view synthesis task. This strategy also allows our model to retain its original reconstruction capabilities while being fine-tuned for stylization. Comprehensive evaluations, using both in-domain and out-of-domain datasets, demonstrate that our approach produces high-quality stylized 3D content that achieve a superior blend of style and scene appearance, while also outperforming existing methods in terms of multi-view consistency and efficiency.
- Abstract(参考訳): マルチビューの一貫性を維持しながら即座に3Dシーンをスタイリングし、スタイルイメージに忠実に似ていることは、依然として大きな課題である。
現在の最先端の3Dスタイリング手法は、通常、芸術的特徴を事前訓練された3D表現に伝達するために、計算的に集中的なテスト時間最適化を伴い、しばしば密度の高い入力画像を必要とする。
対照的に、フィードフォワード再構成モデルの最近の進歩を活用し、未提示のスパースシーン画像と任意のスタイル画像を用いて、1秒未満で直接3Dスタイリングを実現するための新しいアプローチを実証する。
そこで本研究では,構造モデリングと外観シェーディングを分離した分岐型アーキテクチャを導入し,基礎となる3次元シーン構造が歪むのを効果的に防止する。
さらに、新しいビュー合成タスクを通じて、スタイル化モデルの事前学習を容易にするために、アイデンティティ損失を適応させる。
この戦略により、我々のモデルは、スタイリゼーションのために微調整されながら、元の再構築能力を維持できる。
ドメイン内データセットとドメイン外データセットの両方を用いて総合的な評価を行い、本手法は、スタイルとシーンの外観の優れたブレンドを実現するとともに、マルチビューの一貫性と効率性の観点から既存の手法よりも優れた、高品質な3Dコンテンツを生成することを示した。
関連論文リスト
- GarmentCrafter: Progressive Novel View Synthesis for Single-View 3D Garment Reconstruction and Editing [85.67881477813592]
GarmentCrafterは、プロでないユーザが、単一のビューイメージから3Dの衣服を作成、修正できる新しいアプローチである。
本手法は,最先端のワンビュー3D衣料復元法と比較して,視覚的忠実度と視間コヒーレンスに優れる。
論文 参考訳(メタデータ) (2025-03-11T17:56:03Z) - Style3D: Attention-guided Multi-view Style Transfer for 3D Object Generation [9.212876623996475]
Style3Dは、コンテンツ画像とスタイル画像からスタイリングされた3Dオブジェクトを生成するための新しいアプローチである。
複数のビューにまたがる構造的特徴とスタイリスティックな特徴の相互作用を確立することにより,本手法は総合的な3Dスタイリゼーションプロセスを実現する。
論文 参考訳(メタデータ) (2024-12-04T18:59:38Z) - G3DST: Generalizing 3D Style Transfer with Neural Radiance Fields across Scenes and Styles [45.92812062685523]
既存の3Dスタイル転送の方法は、シングルまたは複数スタイルのシーンごとの広範な最適化が必要である。
本研究では, シーンごとの最適化やスタイルごとの最適化を必要とせずに, NeRF からスタイリングされた新しいビューをレンダリングすることで, 既存の手法の限界を克服する。
以上の結果から,本手法はシーンごとの手法に匹敵する視覚的品質を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-24T08:04:19Z) - Style-NeRF2NeRF: 3D Style Transfer From Style-Aligned Multi-View Images [54.56070204172398]
本稿では,3次元シーンをスタイリングするための簡易かつ効果的なパイプラインを提案する。
我々は、スタイル整列画像-画像拡散モデルにより生成されたスタイリング画像を用いて、ソースNeRFモデルを精細化し、3Dスタイルの転送を行う。
本手法は,現実の3Dシーンに多彩な芸術的スタイルを,競争力のある品質で伝達できることを実証する。
論文 参考訳(メタデータ) (2024-06-19T09:36:18Z) - StyleCity: Large-Scale 3D Urban Scenes Stylization [16.017767577678253]
StyleCityは、大規模都市シーンのための視覚とテキストによるテクスチャスタイリングシステムである。
StyleCityは、大規模な都市シーンの3Dテクスチャメッシュをセマンティックスに意識したスタイルでスタイリングする。
論文 参考訳(メタデータ) (2024-04-16T15:58:49Z) - S2RF: Semantically Stylized Radiance Fields [1.243080988483032]
本稿では,任意の画像からオブジェクトへスタイルを3Dシーンで転送する手法を提案する。
我々の主な目的は、3Dシーンのスタイリングをより制御し、任意の視点からカスタマイズ可能でスタイリングされたシーン画像の作成を容易にすることである。
論文 参考訳(メタデータ) (2023-09-03T19:32:49Z) - StyleRF: Zero-shot 3D Style Transfer of Neural Radiance Fields [52.19291190355375]
StyleRF(Style Radiance Fields)は、革新的な3Dスタイル転送技術である。
3Dシーンを表現するために、高精細な特徴の明確なグリッドを使用し、ボリュームレンダリングによって高精細な幾何学を確実に復元することができる。
グリッド機能は参照スタイルに従って変換され、それが直接的に高品質のゼロショットスタイルの転送につながる。
論文 参考訳(メタデータ) (2023-03-19T08:26:06Z) - ARF: Artistic Radiance Fields [63.79314417413371]
本稿では,任意のスタイル画像の芸術的特徴を3Dシーンに転送する方法を提案する。
点雲やメッシュ上で3次元スタイリングを行う従来の手法は、幾何的再構成誤差に敏感である。
より頑健なラディアンス場表現の体系化を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:55:31Z) - StyleMesh: Style Transfer for Indoor 3D Scene Reconstructions [11.153966202832933]
屋内シーンのメッシュ再構成にスタイル転送を適用する。
これにより、お気に入りのアーティストのスタイルで描かれた3D環境を体験するといったVRアプリケーションが可能になる。
論文 参考訳(メタデータ) (2021-12-02T18:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。