論文の概要: GeoComplete: Geometry-Aware Diffusion for Reference-Driven Image Completion
- arxiv url: http://arxiv.org/abs/2510.03110v1
- Date: Fri, 03 Oct 2025 15:38:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.460291
- Title: GeoComplete: Geometry-Aware Diffusion for Reference-Driven Image Completion
- Title(参考訳): GeoComplete: 参照駆動画像補完のための幾何認識拡散
- Authors: Beibei Lin, Tingting Chen, Robby T. Tan,
- Abstract要約: 本稿では,完備領域における幾何的整合性を実現するために,明示的な3次元構造ガイダンスを取り入れた新しいフレームワークを提案する。
実験の結果、GeoCompleteは最先端の手法よりも17.1 PSNRの改善を実現している。
- 参考スコア(独自算出の注目度): 36.02469602451232
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reference-driven image completion, which restores missing regions in a target view using additional images, is particularly challenging when the target view differs significantly from the references. Existing generative methods rely solely on diffusion priors and, without geometric cues such as camera pose or depth, often produce misaligned or implausible content. We propose GeoComplete, a novel framework that incorporates explicit 3D structural guidance to enforce geometric consistency in the completed regions, setting it apart from prior image-only approaches. GeoComplete introduces two key ideas: conditioning the diffusion process on projected point clouds to infuse geometric information, and applying target-aware masking to guide the model toward relevant reference cues. The framework features a dual-branch diffusion architecture. One branch synthesizes the missing regions from the masked target, while the other extracts geometric features from the projected point cloud. Joint self-attention across branches ensures coherent and accurate completion. To address regions visible in references but absent in the target, we project the target view into each reference to detect occluded areas, which are then masked during training. This target-aware masking directs the model to focus on useful cues, enhancing performance in difficult scenarios. By integrating a geometry-aware dual-branch diffusion architecture with a target-aware masking strategy, GeoComplete offers a unified and robust solution for geometry-conditioned image completion. Experiments show that GeoComplete achieves a 17.1 PSNR improvement over state-of-the-art methods, significantly boosting geometric accuracy while maintaining high visual quality.
- Abstract(参考訳): 参照駆動画像補完(Reference-driven Image completion)は、追加画像を用いて、ターゲットビューの欠落した領域を復元するが、ターゲットビューが参照と大きく異なる場合、特に困難である。
既存の生成法は拡散の先行にのみ依存しており、カメラのポーズや奥行きのような幾何学的な手がかりがなければ、しばしば不整合や不可解な内容を生み出す。
そこで我々はGeoCompleteを提案する。GeoCompleteは3次元構造的ガイダンスを組み込んだ新しいフレームワークで、画像のみのアプローチとは別物として、完成領域における幾何的一貫性を強制する。
GeoCompleteは、幾何学的情報を注入するために投影された点雲に拡散過程を条件付けすることと、モデルを関連する参照キューへ導くためにターゲット認識マスキングを適用することの2つの主要なアイデアを紹介している。
このフレームワークはデュアルブランチ拡散アーキテクチャを備えている。
1つの枝はマスクされた標的から欠落した領域を合成し、もう1つは投影された点雲から幾何学的特徴を抽出する。
枝をまたいだ共同の自己維持は、一貫性と正確な完了を保証する。
対象の参照に見えない領域に対処するために、対象のビューを各参照に投影し、隠蔽領域を検出し、トレーニング中にマスクする。
このターゲット対応マスキングは、モデルを有用なキューに集中させ、困難なシナリオにおけるパフォーマンスを向上させる。
GeoCompleteは、幾何対応のデュアルブランチ拡散アーキテクチャとターゲット対応のマスキング戦略を統合することで、幾何条件の画像補完のための統一的で堅牢なソリューションを提供する。
実験により、GeoCompleteは最先端の手法よりも17.1 PSNRの改善を実現し、高い視覚的品質を維持しながら幾何的精度を大幅に向上させることが示された。
関連論文リスト
- JRN-Geo: A Joint Perception Network based on RGB and Normal images for Cross-view Geo-localization [26.250213248316342]
クロスビューのジオローカライゼーションは、無人航空機(UAV)のローカライゼーションとナビゲーションにおいて重要な役割を担っている。
既存の手法は主にRGB画像のセマンティックな特徴に依存している。
RGBと正規画像を統合するための統合知覚ネットワークを導入する。
論文 参考訳(メタデータ) (2025-09-06T12:11:51Z) - Aligned Novel View Image and Geometry Synthesis via Cross-modal Attention Instillation [62.87088388345378]
ワーピング・アンド・インペインティング手法を用いて,新しいビューイメージと幾何学生成の整合性を実現する拡散型フレームワークを提案する。
手法は、既製の幾何学予測器を利用して、参照画像から見る部分的な幾何学を予測する。
生成した画像と幾何の正確なアライメントを確保するために, クロスモーダルアテンション蒸留法を提案する。
論文 参考訳(メタデータ) (2025-06-13T16:19:00Z) - Geometry-Editable and Appearance-Preserving Object Compositon [67.98806888489385]
汎用オブジェクト合成(GOC)は、対象オブジェクトを望まれる幾何学的性質を持つ背景シーンにシームレスに統合することを目的としている。
近年のアプローチは意味的埋め込みを導出し、それらを高度な拡散モデルに統合し、幾何学的に編集可能な生成を可能にする。
本稿では,まずセマンティックな埋め込みを活用して,所望の幾何学的変換を暗黙的にキャプチャするDistangled Geometry-editable and Outearance-Preserving Diffusionモデルを提案する。
論文 参考訳(メタデータ) (2025-05-27T09:05:28Z) - Decoupling Fine Detail and Global Geometry for Compressed Depth Map Super-Resolution [55.9977636042469]
圧縮深度マップ超解像のための新しいフレームワークGDNetを提案する。
グローバルおよび詳細な幾何学的特徴を別々に扱うことにより、高品質な深度マップ再構築プロセスを分離する。
我々の解は、幾何的整合性と詳細回復の観点から、現在の方法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-11-05T16:37:30Z) - Revisiting Near/Remote Sensing with Geospatial Attention [24.565068569913382]
本研究は、地上レベルの補助画像が利用できる場合のオーバーヘッド画像分割の課題に対処する。
近年の研究では、近接・遠隔センシングと呼ばれる2つのモードで共同推論を行うことで、精度が大幅に向上することが示されている。
地平面画像中の画素と地理的位置との地理空間的関係を明確に考察する幾何学的注意機構である地理空間的注意の概念を導入する。
論文 参考訳(メタデータ) (2022-04-04T19:19:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。