論文の概要: SA-DNet: A on-demand semantic object registration network adapting to
non-rigid deformation
- arxiv url: http://arxiv.org/abs/2210.09900v1
- Date: Tue, 18 Oct 2022 14:41:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 15:17:14.003074
- Title: SA-DNet: A on-demand semantic object registration network adapting to
non-rigid deformation
- Title(参考訳): SA-DNet:非剛性変形に対応するオンデマンドセマンティックオブジェクト登録ネットワーク
- Authors: Housheng Xie and Junhui Qiu and Yang Yang and Yukuan Zhang
- Abstract要約: 本稿では,特徴マッチング処理を関心のある意味領域に限定するセマンティック・アウェア・オン・デマンド登録ネットワーク(SA-DNet)を提案する。
本手法は,画像中の非剛性歪みの存在に適応し,意味的によく登録された画像を提供する。
- 参考スコア(独自算出の注目度): 3.3843451892622576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As an essential processing step before the fusing of infrared and visible
images, the performance of image registration determines whether the two images
can be fused at correct spatial position. In the actual scenario, the varied
imaging devices may lead to a change in perspective or time gap between shots,
making significant non-rigid spatial relationship in infrared and visible
images. Even if a large number of feature points are matched, the registration
accuracy may still be inadequate, affecting the result of image fusion and
other vision tasks. To alleviate this problem, we propose a Semantic-Aware
on-Demand registration network (SA-DNet), which mainly purpose is to confine
the feature matching process to the semantic region of interest (sROI) by
designing semantic-aware module (SAM) and HOL-Deep hybrid matching module
(HDM). After utilizing TPS to transform infrared and visible images based on
the corresponding feature points in sROI, the registered images are fused using
image fusion module (IFM) to achieve a fully functional registration and fusion
network. Moreover, we point out that for different demands, this type of
approach allows us to select semantic objects for feature matching as needed
and accomplishes task-specific registration based on specific requirements. To
demonstrate the robustness of SA-DNet for non-rigid distortions, we conduct
extensive experiments by comparing SA-DNet with five state-of-the-art infrared
and visible image feature matching methods, and the experimental results show
that our method adapts better to the presence of non-rigid distortions in the
images and provides semantically well-registered images.
- Abstract(参考訳): 赤外線と可視画像の融合前の必須処理ステップとして、画像登録の性能は、2つの画像が正確な空間位置で融合可能かどうかを決定する。
実際のシナリオでは、様々な撮像装置は視点の変化やショット間の時間ギャップを生じさせ、赤外線と可視画像において大きな非剛性空間的関係を生じさせる可能性がある。
多数の特徴点が一致しても、登録精度は不適切であり、画像融合やその他の視覚課題の結果に影響を与える可能性がある。
この問題を解決するために,意味認識モジュール (SAM) とHOL-Deepハイブリッドマッチングモジュール (HDM) を設計することにより,特徴マッチングプロセスを関心領域 (sROI) に限定することを目的としたセマンティック・アウェア・オン・デマンド登録ネットワーク (SA-DNet) を提案する。
TPSを利用して、sROIの対応する特徴点に基づいて赤外線および可視画像を変換した後、画像融合モジュール(IFM)を用いて登録画像を融合し、完全に機能的な登録・融合ネットワークを実現する。
さらに、異なる要求に対して、この種のアプローチにより、必要に応じて機能マッチングのためのセマンティックオブジェクトを選択でき、特定の要求に基づいてタスク固有の登録を達成できます。
非剛性歪みに対するSA-DNetのロバスト性を実証するために、SA-DNetと5つの最先端赤外線および可視像特徴マッチング法を比較し、実験結果により、画像中の非剛性歪みの存在に適応し、意味的によく登録された画像を提供することを示す。
関連論文リスト
- Frequency Domain Modality-invariant Feature Learning for
Visible-infrared Person Re-Identification [79.9402521412239]
本稿では、周波数領域から見たモダリティの相違を低減するために、新しい周波数領域モダリティ不変特徴学習フレームワーク(FDMNet)を提案する。
我々のフレームワークでは、インスタンス適応振幅フィルタ(IAF)とPhrase-Preserving Normalization(PPNorm)という、2つの新しいモジュールを導入している。
論文 参考訳(メタデータ) (2024-01-03T17:11:27Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Modular Anti-noise Deep Learning Network for Robotic Grasp Detection
Based on RGB Images [2.759223695383734]
本稿では,単一のRGB画像からつかむポーズを検出するための興味深いアプローチを提案する。
本稿では,認識とセマンティックセグメンテーションを付加したモジュール型学習ネットワークを提案する。
提案手法の有効性と精度を,実践的な実験と評価を通じて実証する。
論文 参考訳(メタデータ) (2023-10-30T02:01:49Z) - An Interactively Reinforced Paradigm for Joint Infrared-Visible Image
Fusion and Saliency Object Detection [59.02821429555375]
この研究は、野生の隠れた物体の発見と位置決めに焦点をあて、無人のシステムに役立てる。
経験的分析により、赤外線と可視画像融合(IVIF)は、難しい物体の発見を可能にする。
マルチモーダル・サリエント・オブジェクト検出(SOD)は、画像内の物体の正確な空間的位置を正確に記述する。
論文 参考訳(メタデータ) (2023-05-17T06:48:35Z) - Breaking Modality Disparity: Harmonized Representation for Infrared and
Visible Image Registration [66.33746403815283]
シーン適応型赤外線と可視画像の登録を提案する。
我々は、異なる平面間の変形をシミュレートするためにホモグラフィーを用いる。
我々は、まず、赤外線と可視画像のデータセットが不一致であることを示す。
論文 参考訳(メタデータ) (2023-04-12T06:49:56Z) - Unsupervised Misaligned Infrared and Visible Image Fusion via
Cross-Modality Image Generation and Registration [59.02821429555375]
我々は、教師なし不整合赤外線と可視画像融合のための頑健な相互モダリティ生成登録パラダイムを提案する。
登録された赤外線画像と可視画像とを融合させるため,IFM (Feature Interaction Fusion Module) を提案する。
論文 参考訳(メタデータ) (2022-05-24T07:51:57Z) - Towards Homogeneous Modality Learning and Multi-Granularity Information
Exploration for Visible-Infrared Person Re-Identification [16.22986967958162]
Visible-infrared person re-identification (VI-ReID) は、可視・赤外線カメラビューを介して人物画像の集合を検索することを目的とした、困難かつ必須の課題である。
従来の手法では, GAN (Generative Adversarial Network) を用いて, モーダリティ・コンシデント・データを生成する手法が提案されている。
そこで本研究では、視線外デュアルモード学習をグレーグレー単一モード学習問題として再構成する、統一されたダークラインスペクトルであるAligned Grayscale Modality (AGM)を用いて、モード間マッチング問題に対処する。
論文 参考訳(メタデータ) (2022-04-11T03:03:19Z) - Efficient and Accurate Multi-scale Topological Network for Single Image
Dehazing [31.543771270803056]
本稿では,入力画像自体の特徴抽出と利用に注意を払います。
本稿では,マルチスケールトポロジカルネットワーク (mstn) を提案する。
一方、我々は、異なるスケールで機能の選択と融合を達成するために、マルチスケール機能融合モジュール(MFFM)と適応機能選択モジュール(AFSM)を設計します。
論文 参考訳(メタデータ) (2021-02-24T08:53:14Z) - RGB-D Salient Object Detection with Cross-Modality Modulation and
Selection [126.4462739820643]
本稿では, RGB-D Salient Object Detection (SOD) において, モジュール間相補性を段階的に統合し, 改良する有効な方法を提案する。
提案するネットワークは,1)RGB画像とそれに対応する深度マップからの補完情報を効果的に統合する方法,および2)より精度の高い特徴を適応的に選択する方法の2つの課題を主に解決する。
論文 参考訳(メタデータ) (2020-07-14T14:22:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。