論文の概要: Multi-StyleGS: Stylizing Gaussian Splatting with Multiple Styles
- arxiv url: http://arxiv.org/abs/2506.06846v1
- Date: Sat, 07 Jun 2025 15:54:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.524869
- Title: Multi-StyleGS: Stylizing Gaussian Splatting with Multiple Styles
- Title(参考訳): マルチスタイルGS:複数スタイルのガウススプレイティング
- Authors: Yangkai Lin, Jiabao Lei, Kui jia,
- Abstract要約: 3Dガウススプラッティング(GS)は現実的な3Dシーンモデリングのための有望かつ効率的な手法として登場した。
これらの課題に対処するために,Multi-StyleGSと呼ばれる新しい3D GSスタイリングソリューションを導入する。
- 参考スコア(独自算出の注目度): 45.648346391757336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, there has been a growing demand to stylize a given 3D scene to align with the artistic style of reference images for creative purposes. While 3D Gaussian Splatting(GS) has emerged as a promising and efficient method for realistic 3D scene modeling, there remains a challenge in adapting it to stylize 3D GS to match with multiple styles through automatic local style transfer or manual designation, while maintaining memory efficiency for stylization training. In this paper, we introduce a novel 3D GS stylization solution termed Multi-StyleGS to tackle these challenges. In particular, we employ a bipartite matching mechanism to au tomatically identify correspondences between the style images and the local regions of the rendered images. To facilitate local style transfer, we introduce a novel semantic style loss function that employs a segmentation network to apply distinct styles to various objects of the scene and propose a local-global feature matching to enhance the multi-view consistency. Furthermore, this technique can achieve memory efficient training, more texture details and better color match. To better assign a robust semantic label to each Gaussian, we propose several techniques to regularize the segmentation network. As demonstrated by our comprehensive experiments, our approach outperforms existing ones in producing plausible stylization results and offering flexible editing.
- Abstract(参考訳): 近年は、クリエイティブな目的のために、芸術的な参照画像のスタイルに合わせるために、与えられた3Dシーンをスタイリングする需要が高まっている。
3D Gaussian Splatting(GS)は現実的な3Dシーンモデリングのための有望かつ効率的な手法として登場してきたが、3D GSをスタイリングトレーニングのためのメモリ効率を維持しつつ、局所的な自動転送や手動指定によって複数のスタイルにマッチするようにスタイリングすることには、依然として課題がある。
本稿では,これらの課題に対処するため,Multi-StyleGSと呼ばれる新しい3D GSスタイリングソリューションを提案する。
特に,スタイル画像とレンダリング画像の局所領域の対応関係を動的に識別するために,両部マッチング機構を用いる。
局所的なスタイル伝達を容易にするために,シーンの様々なオブジェクトに異なるスタイルを適用するためにセグメンテーションネットワークを利用する新しいセグメンテーションスタイル損失関数を導入し,マルチビューの一貫性を高めるために,局所的な特徴マッチングを提案する。
さらに、この技術は、メモリ効率のよいトレーニング、テクスチャの詳細の向上、色マッチングの改善を実現することができる。
それぞれのガウスにロバストなセマンティックラベルをよりよく割り当てるために,セグメンテーションネットワークを正規化するためのいくつかの手法を提案する。
我々の総合的な実験で実証されたように、我々のアプローチは既存の手法よりも優れた、可塑性なスタイリング結果を生成し、フレキシブルな編集を提供する。
関連論文リスト
- FPGS: Feed-Forward Semantic-aware Photorealistic Style Transfer of Large-Scale Gaussian Splatting [19.307856423583356]
FPGSはガウススプラッティングで表される大規模放射場に対するフィードフォワード光実写方式の伝送方式である。
FPGSは、任意の複数のスタイルの参照イメージを最適化することなく、大規模な3Dシーンをスタイリングする。
実験では,FPGSが大規模静的・ダイナミックな3Dシーンに対して,光リアルなクオリティシーンのスタイリングを実現することを実証した。
論文 参考訳(メタデータ) (2025-03-11T23:52:56Z) - G3DST: Generalizing 3D Style Transfer with Neural Radiance Fields across Scenes and Styles [45.92812062685523]
既存の3Dスタイル転送の方法は、シングルまたは複数スタイルのシーンごとの広範な最適化が必要である。
本研究では, シーンごとの最適化やスタイルごとの最適化を必要とせずに, NeRF からスタイリングされた新しいビューをレンダリングすることで, 既存の手法の限界を克服する。
以上の結果から,本手法はシーンごとの手法に匹敵する視覚的品質を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-24T08:04:19Z) - StyleSplat: 3D Object Style Transfer with Gaussian Splatting [0.3374875022248866]
スタイル転送は、さまざまな芸術スタイルで3Dアセットを強化し、創造的な表現を変革する。
本稿では,3次元ガウス表現シーンにおける3次元オブジェクトのスタイリング手法であるStyleSplatを紹介する。
様々な3Dシーンやスタイルにまたがって有効性を示し、3D生成における制御とカスタマイズの強化を示す。
論文 参考訳(メタデータ) (2024-07-12T17:55:08Z) - StylizedGS: Controllable Stylization for 3D Gaussian Splatting [53.0225128090909]
StylizedGSは知覚因子を適応的に制御する効率的な3Dニューラルスタイル転送フレームワークである。
本手法は,忠実なブラシストロークとフレキシブル制御による幾何整合性を特徴とする高品質なスタイリゼーションを実現する。
論文 参考訳(メタデータ) (2024-04-08T06:32:11Z) - Gaussian Splatting in Style [32.41970914897462]
3Dシーン化は、ニューラルスタイルの3Dへの移行作業を拡張する。
この問題における重要な課題は、複数の視点でスタイリングされた外観の均一性を維持することである。
本稿では,実時間で高品質なスタイリングされた新しいビューを生成できる,スタイル画像のコレクションを訓練した新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-03-13T13:06:31Z) - StyleRF: Zero-shot 3D Style Transfer of Neural Radiance Fields [52.19291190355375]
StyleRF(Style Radiance Fields)は、革新的な3Dスタイル転送技術である。
3Dシーンを表現するために、高精細な特徴の明確なグリッドを使用し、ボリュームレンダリングによって高精細な幾何学を確実に復元することができる。
グリッド機能は参照スタイルに従って変換され、それが直接的に高品質のゼロショットスタイルの転送につながる。
論文 参考訳(メタデータ) (2023-03-19T08:26:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。