論文の概要: Depth-Supervised Fusion Network for Seamless-Free Image Stitching
- arxiv url: http://arxiv.org/abs/2510.21396v1
- Date: Fri, 24 Oct 2025 12:36:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.465095
- Title: Depth-Supervised Fusion Network for Seamless-Free Image Stitching
- Title(参考訳): Seamless-free Image Stitchingのための深部高速核融合ネットワーク
- Authors: Zhiying Jiang, Ruhao Yan, Zengxi Zhang, Bowei Zhang, Jinyuan Liu,
- Abstract要約: 画像縫合は、複数の視点から撮影された画像をより広い視野で単一の画像に合成する。
物体の深さの顕著な変化は、しばしば大きな視差を生じさせ、結果として、縫合された結果にゴーストや不一致をもたらす。
そこで本研究では,深度に制約のあるシームレスな画像縫合法を提案する。
- 参考スコア(独自算出の注目度): 17.758594808190264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image stitching synthesizes images captured from multiple perspectives into a single image with a broader field of view. The significant variations in object depth often lead to large parallax, resulting in ghosting and misalignment in the stitched results. To address this, we propose a depth-consistency-constrained seamless-free image stitching method. First, to tackle the multi-view alignment difficulties caused by parallax, a multi-stage mechanism combined with global depth regularization constraints is developed to enhance the alignment accuracy of the same apparent target across different depth ranges. Second, during the multi-view image fusion process, an optimal stitching seam is determined through graph-based low-cost computation, and a soft-seam region is diffused to precisely locate transition areas, thereby effectively mitigating alignment errors induced by parallax and achieving natural and seamless stitching results. Furthermore, considering the computational overhead in the shift regression process, a reparameterization strategy is incorporated to optimize the structural design, significantly improving algorithm efficiency while maintaining optimal performance. Extensive experiments demonstrate the superior performance of the proposed method against the existing methods. Code is available at https://github.com/DLUT-YRH/DSFN.
- Abstract(参考訳): 画像縫合は、複数の視点から撮影された画像をより広い視野で単一の画像に合成する。
物体の深さの顕著な変化は、しばしば大きな視差を生じさせ、結果として、縫合された結果にゴーストや不一致をもたらす。
そこで本研究では,深度に制約のあるシームレスな画像縫合法を提案する。
まず,パララックスによる多視点アライメントの難しさに対処するため,大域的な深度正規化制約と組み合わせた多段機構を開発し,異なる深度範囲における同一目標のアライメント精度を向上させる。
第2に、多視点画像融合プロセスにおいて、グラフベースの低コスト計算により最適な縫合シームを判定し、ソフトシーム領域を拡散して遷移領域を正確に位置決めし、パララックスによって誘導されるアライメントエラーを効果的に軽減し、自然かつシームレスな縫合結果を達成する。
さらに、シフト回帰過程の計算オーバーヘッドを考慮すると、構造設計を最適化し、最適な性能を維持しながらアルゴリズム効率を大幅に向上させる再パラメータ化戦略が組み込まれている。
大規模実験により,提案手法の既存手法に対する優れた性能を示す。
コードはhttps://github.com/DLUT-YRH/DSFNで入手できる。
関連論文リスト
- AngularFuse: A Closer Look at Angle-based Perception for Spatial-Sensitive Multi-Modality Image Fusion [54.84069863008752]
本稿では,空間感性画像融合(AngularFuse)のための角度に基づく知覚フレームワークを提案する。
ラプラシアンエッジエンハンスメントと適応ヒストグラムを組み合わせることで、よりリッチなディテールとよりバランスの取れた明るさで参照画像を生成する。
MSRS、RoadScene、M3FDのパブリックデータセットの実験は、AngularFuseが既存の主流メソッドよりも明確なマージンで優れていることを示している。
論文 参考訳(メタデータ) (2025-10-14T08:13:15Z) - Feature Alignment with Equivariant Convolutions for Burst Image Super-Resolution [52.55429225242423]
本稿では,同変畳み込みに基づくアライメントを特徴とするBurst Image Super-Resolution (BISR) のための新しいフレームワークを提案する。
これにより、アライメント変換は画像領域の明示的な監督を通じて学習でき、特徴領域に容易に適用できる。
BISRベンチマークの実験は、定量的メトリクスと視覚的品質の両方において、我々のアプローチの優れた性能を示している。
論文 参考訳(メタデータ) (2025-03-11T11:13:10Z) - Fine Dense Alignment of Image Bursts through Camera Pose and Depth
Estimation [45.11207941777178]
本稿では,ハンドヘルドカメラが捉えたバースト内の画像の微細なアライメントに対する新しいアプローチを提案する。
提案アルゴリズムは、各画素におけるカメラの動きと表面の深さと向きの両方を最適化することにより、密度の高い対応性を確立する。
論文 参考訳(メタデータ) (2023-12-08T17:22:04Z) - Parallax-Tolerant Unsupervised Deep Image Stitching [57.76737888499145]
本稿では,パララックス耐性の非教師あり深層画像縫合技術であるUDIS++を提案する。
まず,グローバルなホモグラフィから局所的な薄板スプライン運動への画像登録をモデル化するための,頑健で柔軟なワープを提案する。
本研究では, 縫合された画像をシームレスに合成し, シーム駆動合成マスクの教師なし学習を行うことを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:40:55Z) - Unsupervised Light Field Depth Estimation via Multi-view Feature
Matching with Occlusion Prediction [15.421219881815956]
監督訓練に十分な深度ラベルを得ることは費用がかかる。
本稿では,LF画像から深度を推定するための教師なしフレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-20T06:11:17Z) - Robust Consistent Video Depth Estimation [65.53308117778361]
本稿では,単眼映像からカメラのカメラポーズと密集した深度マップを推定するアルゴリズムを提案する。
本手法は,(1)低周波大規模アライメントのためのフレキシブルな変形-スプラインと(2)細部奥行き詳細の高周波アライメントのための幾何認識深度フィルタリングとを組み合わせた手法である。
従来の手法とは対照的に, カメラのポーズを入力として必要とせず, かなりの音量, 揺動, 動きのぼやき, 転がりシャッター変形を含む携帯のハンドヘルドキャプチャに頑健な再構成を実現する。
論文 参考訳(メタデータ) (2020-12-10T18:59:48Z) - Light Field Spatial Super-resolution via Deep Combinatorial Geometry
Embedding and Structural Consistency Regularization [99.96632216070718]
ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元空間特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LF画像の各ビューを個別に超解答する新しい学習ベースLFフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-05T14:39:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。