論文の概要: 3D-Consistent Multi-View Editing by Diffusion Guidance
- arxiv url: http://arxiv.org/abs/2511.22228v1
- Date: Thu, 27 Nov 2025 08:48:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.461936
- Title: 3D-Consistent Multi-View Editing by Diffusion Guidance
- Title(参考訳): 拡散誘導による3次元連続多視点編集
- Authors: Josef Bengtson, David Nilsson, Dong In Lee, Fredrik Kahl,
- Abstract要約: 画像を独立して編集する手法は、幾何学的にも測度的にも矛盾する結果を異なる視点で生成することが多い。
画像編集過程における多視点の一貫性を実現するための学習自由拡散フレームワークを提案する。
提案手法は,既存のマルチビュー編集手法と比較して,3次元の整合性を大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 17.847266433739147
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advancements in diffusion models have greatly improved text-based image editing, yet methods that edit images independently often produce geometrically and photometrically inconsistent results across different views of the same scene. Such inconsistencies are particularly problematic for editing of 3D representations such as NeRFs or Gaussian Splat models. We propose a training-free diffusion framework that enforces multi-view consistency during the image editing process. The key assumption is that corresponding points in the unedited images should undergo similar transformations after editing. To achieve this, we introduce a consistency loss that guides the diffusion sampling toward coherent edits. The framework is flexible and can be combined with widely varying image editing methods, supporting both dense and sparse multi-view editing setups. Experimental results show that our approach significantly improves 3D consistency compared to existing multi-view editing methods. We also show that this increased consistency enables high-quality Gaussian Splat editing with sharp details and strong fidelity to user-specified text prompts. Please refer to our project page for video results: https://3d-consistent-editing.github.io/
- Abstract(参考訳): 拡散モデルの最近の進歩は、テキストベースの画像編集を大幅に改善しているが、画像を独立して編集する手法は、同じシーンの異なるビューで幾何学的および光学的に一貫性のない結果を生成することが多い。
このような矛盾は、NeRFやガウススプラモデルのような3D表現の編集に特に問題となる。
画像編集過程における多視点の一貫性を実現するための学習自由拡散フレームワークを提案する。
重要な前提は、未編集画像の対応する点は編集後に同様の変換を行うべきであるということである。
これを実現するために,コヒーレント編集に向けて拡散サンプリングを誘導する一貫性損失を導入する。
このフレームワークはフレキシブルで、様々な画像編集方法と組み合わせることができる。
実験の結果,既存のマルチビュー編集手法に比べて3次元の整合性が有意に向上していることがわかった。
また,この一貫性の向上により,ユーザが指定したテキストプロンプトに対して,シャープな細部と強い忠実度で高品質なガウス版Splat編集が可能となることを示す。
ビデオ結果については、プロジェクトページを参照してください。
関連論文リスト
- View-Consistent 3D Editing with Gaussian Splatting [50.6460814430094]
View-Consistent Editing (VcEdit)は、3DGSをシームレスに画像編集プロセスに組み込む新しいフレームワークである。
一貫性モジュールを反復パターンに組み込むことで、VcEditはマルチビューの不整合の問題を十分に解決する。
論文 参考訳(メタデータ) (2024-03-18T15:22:09Z) - DiffEditor: Boosting Accuracy and Flexibility on Diffusion-based Image
Editing [66.43179841884098]
大規模テキスト・ツー・イメージ(T2I)拡散モデルは、ここ数年で画像生成に革命をもたらした。
既存の拡散型画像編集における2つの弱点を正すためにDiffEditorを提案する。
本手法は,様々な精細な画像編集タスクにおいて,最先端の性能を効率的に達成することができる。
論文 参考訳(メタデータ) (2024-02-04T18:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。