論文の概要: InterGSEdit: Interactive 3D Gaussian Splatting Editing with 3D Geometry-Consistent Attention Prior
- arxiv url: http://arxiv.org/abs/2507.04961v1
- Date: Mon, 07 Jul 2025 13:04:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.427211
- Title: InterGSEdit: Interactive 3D Gaussian Splatting Editing with 3D Geometry-Consistent Attention Prior
- Title(参考訳): InterGSEdit: 3D Geometry-Consistent Attentionによるインタラクティブな3Dガウス撮影
- Authors: Minghao Wen, Shengjie Wu, Kangkan Wang, Dong Liang,
- Abstract要約: InterGSEditは、ユーザの好みでキービューをインタラクティブに選択することで、高品質な3DGS編集のための新しいフレームワークである。
我々は,意図融合ネットワーク(AFN)を介して2次元交差注意と融合した3次元制約された注意を得るために,GAP3D$を計画する。
- 参考スコア(独自算出の注目度): 3.6657066043195585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting based 3D editing has demonstrated impressive performance in recent years. However, the multi-view editing often exhibits significant local inconsistency, especially in areas of non-rigid deformation, which lead to local artifacts, texture blurring, or semantic variations in edited 3D scenes. We also found that the existing editing methods, which rely entirely on text prompts make the editing process a "one-shot deal", making it difficult for users to control the editing degree flexibly. In response to these challenges, we present InterGSEdit, a novel framework for high-quality 3DGS editing via interactively selecting key views with users' preferences. We propose a CLIP-based Semantic Consistency Selection (CSCS) strategy to adaptively screen a group of semantically consistent reference views for each user-selected key view. Then, the cross-attention maps derived from the reference views are used in a weighted Gaussian Splatting unprojection to construct the 3D Geometry-Consistent Attention Prior ($GAP^{3D}$). We project $GAP^{3D}$ to obtain 3D-constrained attention, which are fused with 2D cross-attention via Attention Fusion Network (AFN). AFN employs an adaptive attention strategy that prioritizes 3D-constrained attention for geometric consistency during early inference, and gradually prioritizes 2D cross-attention maps in diffusion for fine-grained features during the later inference. Extensive experiments demonstrate that InterGSEdit achieves state-of-the-art performance, delivering consistent, high-fidelity 3DGS editing with improved user experience.
- Abstract(参考訳): 3D Gaussian Splattingをベースとした3D編集は、近年、目覚ましいパフォーマンスを見せている。
しかし、マルチビュー編集は、特に非剛性変形の領域において、局所的なアーティファクト、テクスチャのぼかし、編集された3Dシーンのセマンティックなバリエーションをもたらす重要な局所的な矛盾を示すことが多い。
また,テキストのプロンプトに完全に依存している既存の編集手法は,編集プロセスを「ワンショット取引」にし,編集度を柔軟に制御することが困難であることも見出した。
これらの課題に対応するために,ユーザ好みのキービューをインタラクティブに選択することで,高品質な3DGS編集のための新しいフレームワークであるInterGSEditを提案する。
ユーザが選択したキービューごとに意味的に一貫した参照ビュー群を適応的に表示するためのCLIPベースのセマンティック一貫性選択(CSCS)戦略を提案する。
そして、基準ビューから導かれる交差アテンション写像は、重み付けされたガウス・スプレイティング・アンプロジェクション(英語版)において、3次元幾何一貫性アテンション・プライド(GAP^{3D}$)を構築するために使用される。
我々は,意図融合ネットワーク(AFN: Attention Fusion Network)を介して,2次元のクロスアテンションと融合した3次元制約された注意を得るために,GAP^{3D$を計画する。
AFNは、3次元制約された注意を早期推論時に幾何整合性に優先順位付けする適応的注意戦略を採用し、後期推論において細粒度の特徴に対して拡散中の2次元横断地図を徐々に優先順位付けする。
大規模な実験により、InterGSEditは最先端のパフォーマンスを実現し、ユーザエクスペリエンスを改善した一貫性のある高忠実な3DGS編集を提供する。
関連論文リスト
- Advancing 3D Gaussian Splatting Editing with Complementary and Consensus Information [4.956066467858058]
テキスト誘導型3Dガウス版(3DGS)編集の視覚的忠実度と一貫性を向上させるための新しいフレームワークを提案する。
本手法は,最先端手法と比較して,レンダリング品質とビューの整合性に優れた性能を示す。
論文 参考訳(メタデータ) (2025-03-14T17:15:26Z) - EditSplat: Multi-View Fusion and Attention-Guided Optimization for View-Consistent 3D Scene Editing with 3D Gaussian Splatting [3.9006270555948133]
MFG(Multi-view Fusion Guidance)とAGT(Attention-Guided Trimming)を統合したテキスト駆動3Dシーン編集フレームワークEditSplatを提案する。
我々のMFGは、拡散過程に不可欠な多視点情報を組み込むことにより、多視点整合性を確保する。
我々のAGTは、3DGSの明示的な表現を利用して、3Dガウスを選択的にプーンし、最適化し、最適化効率を向上し、正確で意味的にリッチな局所的な編集を可能にする。
論文 参考訳(メタデータ) (2024-12-16T07:56:04Z) - 3D Gaussian Editing with A Single Image [19.662680524312027]
本稿では,3次元ガウシアンスプラッティングをベースとしたワンイメージ駆動の3Dシーン編集手法を提案する。
提案手法は,ユーザが指定した視点から描画した画像の編集版に合わせるために,3次元ガウスを最適化することを学ぶ。
実験により, 幾何学的詳細処理, 長距離変形, 非剛性変形処理における本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-08-14T13:17:42Z) - DragGaussian: Enabling Drag-style Manipulation on 3D Gaussian Representation [57.406031264184584]
DragGaussianは、3D Gaussian Splattingをベースにした3Dオブジェクトのドラッグ編集フレームワークである。
我々の貢献は、新しいタスクの導入、インタラクティブなポイントベース3D編集のためのDragGaussianの開発、質的かつ定量的な実験によるその効果の包括的検証などである。
論文 参考訳(メタデータ) (2024-05-09T14:34:05Z) - DGE: Direct Gaussian 3D Editing by Consistent Multi-view Editing [72.54566271694654]
オープンな言語命令に基づいて3Dオブジェクトやシーンを編集する際の問題点を考察する。
この問題に対する一般的なアプローチは、3D編集プロセスをガイドするために2Dイメージジェネレータまたはエディタを使用することである。
このプロセスは、コストのかかる3D表現の反復的な更新を必要とするため、しばしば非効率である。
論文 参考訳(メタデータ) (2024-04-29T17:59:30Z) - View-Consistent 3D Editing with Gaussian Splatting [50.6460814430094]
View-Consistent Editing (VcEdit)は、3DGSをシームレスに画像編集プロセスに組み込む新しいフレームワークである。
一貫性モジュールを反復パターンに組み込むことで、VcEditはマルチビューの不整合の問題を十分に解決する。
論文 参考訳(メタデータ) (2024-03-18T15:22:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。