論文の概要: Personalize Your Gaussian: Consistent 3D Scene Personalization from a Single Image
- arxiv url: http://arxiv.org/abs/2505.14537v1
- Date: Tue, 20 May 2025 15:55:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.551489
- Title: Personalize Your Gaussian: Consistent 3D Scene Personalization from a Single Image
- Title(参考訳): ガウシアンをパーソナライズする:1枚の画像から一貫した3Dシーンパーソナライズ
- Authors: Yuxuan Wang, Xuanyu Yi, Qingshan Xu, Yuan Zhou, Long Chen, Hanwang Zhang,
- Abstract要約: 本稿では,3次元ガウス平滑化(CP-GS)の一貫性パーソナライゼーションについて述べる。
特にCP-GSは、事前訓練された画像から3D生成と反復的なLoRAファインチューニングを統合して、参照外観を抽出し拡張する。
- 参考スコア(独自算出の注目度): 56.134832639494185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalizing 3D scenes from a single reference image enables intuitive user-guided editing, which requires achieving both multi-view consistency across perspectives and referential consistency with the input image. However, these goals are particularly challenging due to the viewpoint bias caused by the limited perspective provided in a single image. Lacking the mechanisms to effectively expand reference information beyond the original view, existing methods of image-conditioned 3DGS personalization often suffer from this viewpoint bias and struggle to produce consistent results. Therefore, in this paper, we present Consistent Personalization for 3D Gaussian Splatting (CP-GS), a framework that progressively propagates the single-view reference appearance to novel perspectives. In particular, CP-GS integrates pre-trained image-to-3D generation and iterative LoRA fine-tuning to extract and extend the reference appearance, and finally produces faithful multi-view guidance images and the personalized 3DGS outputs through a view-consistent generation process guided by geometric cues. Extensive experiments on real-world scenes show that our CP-GS effectively mitigates the viewpoint bias, achieving high-quality personalization that significantly outperforms existing methods. The code will be released at https://github.com/Yuxuan-W/CP-GS.
- Abstract(参考訳): 単一の参照画像から3Dシーンをパーソナライズすることで、パーソナライズされたユーザガイド編集が可能になる。
しかし、これらの目標が特に難しいのは、単一の画像で提供される限られた視点によって引き起こされる視点バイアスのためである。
参照情報を元の視点を超えて効果的に拡張するメカニズムが欠如しているため、画像条件付き3DGSパーソナライゼーションの既存の方法は、しばしばこの視点バイアスに悩まされ、一貫性のある結果を生み出すのに苦労する。
そこで本論文では,一視点参照の出現を新たな視点へ段階的に伝播させるフレームワークであるCP-GSについて,一貫性パーソナライゼーションを提案する。
特に、CP-GSは、予め訓練された画像から3D生成と反復的なLoRAファインチューニングを統合して、参照外観を抽出して拡張し、幾何学的手がかりでガイドされたビュー一貫性生成プロセスを通じて、忠実な多視点誘導画像とパーソナライズされた3DGS出力を生成する。
我々のCP-GSは視点バイアスを効果的に軽減し、既存の手法を著しく上回る高品質なパーソナライゼーションを実現している。
コードはhttps://github.com/Yuxuan-W/CP-GSで公開される。
関連論文リスト
- ExScene: Free-View 3D Scene Reconstruction with Gaussian Splatting from a Single Image [4.366356163044466]
既存の方法は、単一視点からの視野が狭い低一貫性の3Dシーンを再構成するためにしばしば制限される。
任意の単視点画像から没入型3Dシーンを再構成する2段階パイプラインであるExSceneを提案する。
ExSceneは単一ビュー入力のみを使用して一貫した没入的なシーン再構築を実現する。
論文 参考訳(メタデータ) (2025-03-31T09:33:22Z) - HuGDiffusion: Generalizable Single-Image Human Rendering via 3D Gaussian Diffusion [50.02316409061741]
HuGDiffusionは、シングルビュー入力画像から人間の文字の新しいビュー合成(NVS)を実現するための学習パイプラインである。
本研究では,1つの画像から抽出したヒトの事前情報に基づいて,拡散に基づくフレームワークを用いて3DGS属性の集合を生成することを目的とする。
我々のHuGDiffusionは最先端の手法よりも優れた性能を示している。
論文 参考訳(メタデータ) (2025-01-25T01:00:33Z) - CATSplat: Context-Aware Transformer with Spatial Guidance for Generalizable 3D Gaussian Splatting from A Single-View Image [18.445769892372528]
単視点3Dシーン再構成のための新しい一般化可能なトランスフォーマーベースのフレームワークであるCATSplatを紹介する。
シーン固有のコンテキストの詳細をテキスト埋め込みからクロスアテンションに組み込むことで、コンテキスト認識の再構築の道を開く。
大規模データセットを用いた実験により, 単視点3次元シーン再構成におけるCATSplatの最先端性能が実証された。
論文 参考訳(メタデータ) (2024-12-17T13:32:04Z) - SplatFormer: Point Transformer for Robust 3D Gaussian Splatting [18.911307036504827]
3D Gaussian Splatting (3DGS) は、近ごろ光現実的再構成を変換し、高い視覚的忠実度とリアルタイム性能を実現した。
レンダリング品質は、テストビューがトレーニング中に使用されるカメラアングルから逸脱したときに著しく低下し、没入型自由視点レンダリングとナビゲーションのアプリケーションにとって大きな課題となった。
SplatFormerは,ガウススプラット上での操作に特化して設計された最初の点変換器モデルである。
我々のモデルは、非常に斬新なビュー下でのレンダリング品質を著しく改善し、これらの難易度シナリオにおける最先端のパフォーマンスを達成し、様々な3DGS正規化技術、スパースビュー合成に適したマルチシーンモデル、拡散を上回ります。
論文 参考訳(メタデータ) (2024-11-10T08:23:27Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。