論文の概要: Image Matching Filtering and Refinement by Planes and Beyond
- arxiv url: http://arxiv.org/abs/2411.09484v1
- Date: Thu, 14 Nov 2024 14:37:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 15:24:29.205186
- Title: Image Matching Filtering and Refinement by Planes and Beyond
- Title(参考訳): 平面及びそれ以上の面による画像マッチングフィルタリングと微細化
- Authors: Fabio Bellavia, Zhenjun Zhao, Luca Morelli, Fabio Remondino,
- Abstract要約: 本稿では,画像マッチングにおけるスパース対応のフィルタリングと精細化のためのモジュール型非深度学習手法を提案する。
提案手法は, 標準データセットと画像マッチングパイプラインで広く評価され, 最先端のアプローチと比較される。
実験の結果,提案した非深層学習の幾何学的アプローチは,最近の最先端のディープラーニング手法に匹敵する,あるいは同等な性能を達成できることが示された。
- 参考スコア(独自算出の注目度): 8.184339776177486
- License:
- Abstract: This paper introduces a modular, non-deep learning method for filtering and refining sparse correspondences in image matching. Assuming that motion flow within the scene can be approximated by local homography transformations, matches are aggregated into overlapping clusters corresponding to virtual planes using an iterative RANSAC-based approach, with non-conforming correspondences discarded. Moreover, the underlying planar structural design provides an explicit map between local patches associated with the matches, enabling optional refinement of keypoint positions through cross-correlation template matching after patch reprojection. Finally, to enhance robustness and fault-tolerance against violations of the piece-wise planar approximation assumption, a further strategy is designed for minimizing relative patch distortion in the plane reprojection by introducing an intermediate homography that projects both patches into a common plane. The proposed method is extensively evaluated on standard datasets and image matching pipelines, and compared with state-of-the-art approaches. Unlike other current comparisons, the proposed benchmark also takes into account the more general, real, and practical cases where camera intrinsics are unavailable. Experimental results demonstrate that our proposed non-deep learning, geometry-based approach achieves performances that are either superior to or on par with recent state-of-the-art deep learning methods. Finally, this study suggests that there are still development potential in actual image matching solutions in the considered research direction, which could be in the future incorporated in novel deep image matching architectures.
- Abstract(参考訳): 本稿では,画像マッチングにおけるスパース対応のフィルタリングと精細化のためのモジュール型非深度学習手法を提案する。
シーン内の動きの流れを局所的ホモグラフィ変換によって近似できると仮定すると、一致は繰り返しRANSACベースのアプローチを用いて仮想平面に対応する重なり合うクラスタに集約され、非コンフォーミング対応は破棄される。
さらに、基礎となる平面構造設計は、マッチに関連するローカルパッチ間の明示的なマップを提供し、パッチ再プロジェクション後の相互相関テンプレートマッチングを通じてキーポイント位置の任意の改善を可能にする。
最後に,平面近似仮定の破れに対する堅牢性と耐障害性を高めるため,両パッチを共通平面に投影する中間ホモグラフィを導入し,平面再投影における相対的パッチ歪みを最小化するためのさらなる戦略を考案した。
提案手法は, 標準データセットと画像マッチングパイプラインで広く評価され, 最先端のアプローチと比較される。
他の比較と異なり、提案されたベンチマークは、カメラ固有の概念が利用できない、より一般的な、現実的で実践的なケースも考慮に入れている。
実験の結果,提案した非深層学習の幾何学的アプローチは,最近の最先端のディープラーニング手法に匹敵する,あるいは同等な性能を達成できることが示された。
最後に,本研究は,将来新たな深層画像マッチングアーキテクチャに組み込まれる可能性がある研究方向において,実際の画像マッチングソリューションにはまだ発展の可能性があることを示唆する。
関連論文リスト
- APRF: Anti-Aliasing Projection Representation Field for Inverse Problem
in Imaging [74.9262846410559]
Sparse-view Computed Tomography (SVCT) は画像の逆問題である。
近年の研究では、インプリシット・ニューラル・リ表現(INR)を用いて、シングラムとCT画像の座標に基づくマッピングを構築している。
自己教師型SVCT再構成法の提案 -抗エイリアス射影表現場(APRF)-
APRFは空間的制約によって隣接する投影ビュー間の連続的な表現を構築することができる。
論文 参考訳(メタデータ) (2023-07-11T14:04:12Z) - Image Matching by Bare Homography [9.431261418370147]
本稿では、シーンを粗い局所的な重なり合う平面としてモデル化する、新しい非深度画像マッチングフレームワークであるSlimeを提案する。
平面は互換性のあるマッチングによって相互に拡張され、画像は固定タイルに分割される。
本稿では、エンドツーエンドのディープネットワークとハイブリッドパイプラインで表現される画像マッチングにおける最近の最先端画像の比較分析について述べる。
論文 参考訳(メタデータ) (2023-05-15T18:35:47Z) - Automatic Registration of Images with Inconsistent Content Through
Line-Support Region Segmentation and Geometrical Outlier Removal [17.90609572352273]
本稿では,線支持領域分割と幾何外乱除去(ALRS-GOR)による自動画像登録手法を提案する。
アフィン変形と矛盾した内容を含む画像の登録に関する問題に対処するように設計されている。
提案手法の評価には,アフィン変形を模擬した空中画像など,様々な画像セットが検討されている。
論文 参考訳(メタデータ) (2022-04-02T10:47:16Z) - Learning Contrastive Representation for Semantic Correspondence [150.29135856909477]
セマンティックマッチングのためのマルチレベルコントラスト学習手法を提案する。
画像レベルのコントラスト学習は、畳み込み特徴が類似したオブジェクト間の対応を見出すための鍵となる要素であることを示す。
論文 参考訳(メタデータ) (2021-09-22T18:34:14Z) - Transformer Guided Geometry Model for Flow-Based Unsupervised Visual
Odometry [38.20137500372927]
対画像からの情報を扱う2つのカメラポーズ推定器からなる手法を提案する。
画像シーケンスでは、Transformerライクな構造を採用して、局所的な時間ウィンドウ上にジオメトリモデルを構築する。
対向画像間の関係を利用するために,f2fpe(flow-to-flow pose estimator)を提案する。
論文 参考訳(メタデータ) (2020-12-08T19:39:26Z) - Deep Shells: Unsupervised Shape Correspondence with Optimal Transport [52.646396621449]
本稿では,3次元形状対応のための教師なし学習手法を提案する。
提案手法は,複数のデータセット上での最先端技術よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-28T22:24:07Z) - Deep Keypoint-Based Camera Pose Estimation with Geometric Constraints [80.60538408386016]
連続するフレームから相対的なカメラのポーズを推定することは、視覚計測の基本的な問題である。
本稿では,検出,特徴抽出,マッチング,外乱除去のための学習可能なモジュールで構成されるエンドツーエンドのトレーニング可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-29T21:41:31Z) - Making Affine Correspondences Work in Camera Geometry Computation [62.7633180470428]
局所的な特徴は、ポイント・ツー・ポイント対応ではなく、リージョン・ツー・リージョンを提供する。
本稿では,全モデル推定パイプラインにおいて,地域間マッチングを効果的に活用するためのガイドラインを提案する。
実験により、アフィンソルバはより高速な実行時にポイントベースソルバに匹敵する精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-07-20T12:07:48Z) - ProAlignNet : Unsupervised Learning for Progressively Aligning Noisy
Contours [12.791313859673187]
ProAlignNetは、輪郭形状間の大規模なミスアライメントと複雑な変換を説明できる。
近接感度および局所形状依存類似度測定値の上界から導出される新しい損失関数を用いて学習する。
実世界の2つの応用において、提案したモデルは最先端の手法よりも一貫して優れている。
論文 参考訳(メタデータ) (2020-05-23T14:56:14Z) - Deep Semantic Matching with Foreground Detection and Cycle-Consistency [103.22976097225457]
深層ネットワークに基づく弱い教師付きセマンティックマッチングに対処する。
本研究では,背景乱れの影響を抑えるために,前景領域を明示的に推定する。
複数の画像にまたがって予測変換を強制し、幾何的に可視かつ一貫したサイクル一貫性の損失を発生させる。
論文 参考訳(メタデータ) (2020-03-31T22:38:09Z) - Leveraging Photogrammetric Mesh Models for Aerial-Ground Feature Point
Matching Toward Integrated 3D Reconstruction [19.551088857830944]
地上・地上画像の統合は, 都市環境における表面の再構築を効果的に進めるためのアプローチとして証明されている。
幾何認識による画像補正に基づく従来の研究により,この問題は緩和された。
地上画像マッチングにフォトグラムメッシュモデルを利用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-21T01:47:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。