論文の概要: ABC-GS: Alignment-Based Controllable Style Transfer for 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2503.22218v1
- Date: Fri, 28 Mar 2025 08:07:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 15:31:23.722853
- Title: ABC-GS: Alignment-Based Controllable Style Transfer for 3D Gaussian Splatting
- Title(参考訳): ABC-GS:3次元ガウス平滑化のためのアライメントベース制御可能なスタイル転送
- Authors: Wenjie Liu, Zhongliang Liu, Xiaoyan Yang, Man Sha, Yang Li,
- Abstract要約: ABC-GSは,高品質な3Dスタイル転送を実現するために,3Dガウス平滑化に基づく新しいフレームワークである。
制御可能なマッチングステージは、シーン内容とスタイル特徴の正確なアライメントを実現するように設計されている。
特徴アライメントに基づくスタイル転送損失関数を提案し、スタイル転送の結果が参照画像のグローバルなスタイルを正確に反映することを保証する。
- 参考スコア(独自算出の注目度): 4.735758456213964
- License:
- Abstract: 3D scene stylization approaches based on Neural Radiance Fields (NeRF) achieve promising results by optimizing with Nearest Neighbor Feature Matching (NNFM) loss. However, NNFM loss does not consider global style information. In addition, the implicit representation of NeRF limits their fine-grained control over the resulting scenes. In this paper, we introduce ABC-GS, a novel framework based on 3D Gaussian Splatting to achieve high-quality 3D style transfer. To this end, a controllable matching stage is designed to achieve precise alignment between scene content and style features through segmentation masks. Moreover, a style transfer loss function based on feature alignment is proposed to ensure that the outcomes of style transfer accurately reflect the global style of the reference image. Furthermore, the original geometric information of the scene is preserved with the depth loss and Gaussian regularization terms. Extensive experiments show that our ABC-GS provides controllability of style transfer and achieves stylization results that are more faithfully aligned with the global style of the chosen artistic reference. Our homepage is available at https://vpx-ecnu.github.io/ABC-GS-website.
- Abstract(参考訳): ニューラルレイディアンス場(NeRF)に基づく3次元シーンのスタイリング手法は,近近近距離特徴マッチング(NNFM)の損失を最適化することにより,有望な結果が得られる。
しかし、NNFMの損失はグローバルなスタイル情報を考慮していない。
さらに、NeRFの暗黙的な表現は、結果のシーンに対するきめ細かい制御を制限する。
本稿では,高品質な3Dスタイル転送を実現するために,3Dガウス平滑化に基づく新しいフレームワークABC-GSを紹介する。
この目的のために、セグメンテーションマスクを介してシーン内容とスタイル特徴の正確なアライメントを実現するために、制御可能なマッチングステージを設計する。
さらに、特徴アライメントに基づくスタイル転送損失関数を提案し、スタイル転送の結果が参照画像のグローバルなスタイルを正確に反映することを保証する。
さらに、シーンの本来の幾何学的情報は、深さ損失とガウス正規化項と共に保存される。
我々のABC-GSは、スタイル転送の制御可能性を提供し、選択された芸術的参照のグローバルなスタイルに忠実に整合したスタイル化結果を達成している。
私たちのホームページはhttps://vpx-ecnu.github.io/ABC-GS-website.comで公開されています。
関連論文リスト
- WaSt-3D: Wasserstein-2 Distance for Scene-to-Scene Stylization on 3D Gaussians [37.139479729087896]
We developed a new style transfer method for 3D scene called WaSt-3D。
トレーニングを必要とせずに、スタイルシーンからコンテンツシーンに詳細を忠実に転送する。
WaSt-3Dは、トレーニングを必要とせずに、さまざまなコンテンツやスタイルシーンに一貫して結果を提供する。
論文 参考訳(メタデータ) (2024-09-26T15:02:50Z) - G-Style: Stylized Gaussian Splatting [5.363168481735954]
本稿では,G-Styleを提案する。G-Style,G-Style,G-Style,G-Style,G-Style,G-Style,G-Style,G-Style,G-Style。
G-Styleは数分で高品質なスタイリゼーションを生成し、質的にも量的にも既存の手法より優れている。
論文 参考訳(メタデータ) (2024-08-28T10:43:42Z) - Reference-based Controllable Scene Stylization with Gaussian Splatting [30.321151430263946]
コンテンツアラインな参照画像に基づいて外観を編集する参照ベースシーンスタイリングは、新たな研究領域である。
参照型スタイリゼーションに3Dガウススティング(3DGS)を適用し,リアルタイムなスタイリゼーションを実現するReGSを提案する。
論文 参考訳(メタデータ) (2024-07-09T20:30:29Z) - CoARF: Controllable 3D Artistic Style Transfer for Radiance Fields [7.651502365257349]
本稿では,制御可能な3Dシーンスタイリングのための新しいアルゴリズムであるCoARFを紹介する。
CoARFは、ユーザが指定したスタイル転送の制御性と、より正確な特徴マッチングを備えた優れたスタイル転送品質を提供する。
論文 参考訳(メタデータ) (2024-04-23T12:22:32Z) - StylizedGS: Controllable Stylization for 3D Gaussian Splatting [53.0225128090909]
StylizedGSは知覚因子を適応的に制御する効率的な3Dニューラルスタイル転送フレームワークである。
本手法は,忠実なブラシストロークとフレキシブル制御による幾何整合性を特徴とする高品質なスタイリゼーションを実現する。
論文 参考訳(メタデータ) (2024-04-08T06:32:11Z) - GaussianStyle: Gaussian Head Avatar via StyleGAN [64.85782838199427]
本稿では,3DGSのボリューム強度とStyleGANの強力な暗黙表現を統合する新しいフレームワークを提案する。
提案手法は, 再現性, 新規なビュー合成, アニメーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-02-01T18:14:42Z) - Locally Stylized Neural Radiance Fields [30.037649804991315]
局所的なスタイル伝達に基づくニューラルレイディアンスフィールド(NeRF)のスタイリングフレームワークを提案する。
特に、ハッシュグリッド符号化を用いて外観や幾何学的要素の埋め込みを学習する。
提案手法は, 新規なビュー合成により, 可視なスタイリゼーション結果が得られることを示す。
論文 参考訳(メタデータ) (2023-09-19T15:08:10Z) - StyleRF: Zero-shot 3D Style Transfer of Neural Radiance Fields [52.19291190355375]
StyleRF(Style Radiance Fields)は、革新的な3Dスタイル転送技術である。
3Dシーンを表現するために、高精細な特徴の明確なグリッドを使用し、ボリュームレンダリングによって高精細な幾何学を確実に復元することができる。
グリッド機能は参照スタイルに従って変換され、それが直接的に高品質のゼロショットスタイルの転送につながる。
論文 参考訳(メタデータ) (2023-03-19T08:26:06Z) - Learning Graph Neural Networks for Image Style Transfer [131.73237185888215]
最先端のパラメトリックおよび非パラメトリックなスタイル転送アプローチは、グローバルな統計アライメントによる局所的なスタイルパターンの歪んだり、パッチミスマッチによるアーティファクトを減らしたりする傾向にある。
本稿では,パラメトリック型と非パラメトリック型の両方のスタイライゼーションの欠如を緩和する,新しい半パラメトリック型ニューラルスタイルトランスファーフレームワークについて検討する。
論文 参考訳(メタデータ) (2022-07-24T07:41:31Z) - ARF: Artistic Radiance Fields [63.79314417413371]
本稿では,任意のスタイル画像の芸術的特徴を3Dシーンに転送する方法を提案する。
点雲やメッシュ上で3次元スタイリングを行う従来の手法は、幾何的再構成誤差に敏感である。
より頑健なラディアンス場表現の体系化を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:55:31Z) - Third Time's the Charm? Image and Video Editing with StyleGAN3 [70.36056009463738]
StyleGANは間違いなく最も興味深くよく研究された生成モデルの一つである。
本稿では、最近のStyleGAN3アーキテクチャについて検討し、それ以前のアーキテクチャと比較し、その独特な利点と欠点について検討する。
論文 参考訳(メタデータ) (2022-01-31T18:44:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。