論文の概要: Enhancing Deformable Local Features by Jointly Learning to Detect and
Describe Keypoints
- arxiv url: http://arxiv.org/abs/2304.00583v1
- Date: Sun, 2 Apr 2023 18:01:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 17:22:33.723993
- Title: Enhancing Deformable Local Features by Jointly Learning to Detect and
Describe Keypoints
- Title(参考訳): キーポイントの検出と記述のための共同学習による変形可能な局所特徴の強化
- Authors: Guilherme Potje, Felipe Cadar, Andre Araujo, Renato Martins, Erickson
R. Nascimento
- Abstract要約: 局所特徴抽出は、画像マッチングや検索といった重要なタスクに対処するためのコンピュータビジョンにおける標準的なアプローチである。
鍵点を共同で検出・記述する新しい変形認識ネットワークであるDALFを提案する。
提案手法は、変形可能なオブジェクト検索と、非剛性な3次元表面登録という、2つの実世界のアプリケーションの性能を向上させる。
- 参考スコア(独自算出の注目度): 8.390939268280235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local feature extraction is a standard approach in computer vision for
tackling important tasks such as image matching and retrieval. The core
assumption of most methods is that images undergo affine transformations,
disregarding more complicated effects such as non-rigid deformations.
Furthermore, incipient works tailored for non-rigid correspondence still rely
on keypoint detectors designed for rigid transformations, hindering performance
due to the limitations of the detector. We propose DALF (Deformation-Aware
Local Features), a novel deformation-aware network for jointly detecting and
describing keypoints, to handle the challenging problem of matching deformable
surfaces. All network components work cooperatively through a feature fusion
approach that enforces the descriptors' distinctiveness and invariance.
Experiments using real deforming objects showcase the superiority of our
method, where it delivers 8% improvement in matching scores compared to the
previous best results. Our approach also enhances the performance of two
real-world applications: deformable object retrieval and non-rigid 3D surface
registration. Code for training, inference, and applications are publicly
available at https://verlab.dcc.ufmg.br/descriptors/dalf_cvpr23.
- Abstract(参考訳): 局所的特徴抽出は、画像マッチングや検索といった重要なタスクに取り組むコンピュータビジョンにおける標準的なアプローチである。
多くの手法の中核となる仮定は、画像が非剛体変形のようなより複雑な効果を無視してアフィン変換を行うということである。
さらに、非剛性対応用に調整された初期作業は、厳格な変換のために設計されたキーポイント検出器に依存しており、検出器の制限により性能を阻害している。
本稿では,キーポイントを共同で検出し記述する新しい変形認識ネットワークである dalf (deformation-aware local features) を提案する。
すべてのネットワークコンポーネントは、ディスクリプタの識別性と不変性を強制する機能融合アプローチを通じて協調的に動作する。
実変形物体を用いた実験では,提案手法の優位性が示され,従来よりも8%向上した結果が得られた。
また,このアプローチは,変形可能なオブジェクト検索と非剛性3次元表面登録という2つの実世界のアプリケーションの性能を向上させる。
トレーニング、推論、アプリケーションのコードはhttps://verlab.dcc.ufmg.br/descriptors/dalf_cvpr23で公開されている。
関連論文リスト
- RADA: Robust and Accurate Feature Learning with Domain Adaptation [7.905594146253435]
本稿では、2つの重要な要素を組み込んだ多層機能集約ネットワークを導入し、堅牢で正確な特徴の学習を容易にする。
提案手法は,画像マッチング,カメラポーズ推定,視覚的ローカライゼーションタスクにおいて優れた結果が得られる。
論文 参考訳(メタデータ) (2024-07-22T16:49:58Z) - RGBD-Glue: General Feature Combination for Robust RGB-D Point Cloud Registration [0.0]
より緩く、より効果的に組み合わせられる新しい機能の組み合わせフレームワークを提案する。
変換一貫性に基づいた明示的なフィルタは,各機能の弱点を克服可能な組み合わせフレームワーク用に設計されている。
ScanNet と 3DMatch の実験により,本手法が最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2024-05-13T09:56:28Z) - KP-RED: Exploiting Semantic Keypoints for Joint 3D Shape Retrieval and Deformation [87.23575166061413]
KP-RED は KeyPoint 主導の Retrieval and deformation フレームワークである。
オブジェクトスキャンを入力として、最も幾何学的に類似したCADモデルを共同で検索し、変形させる。
論文 参考訳(メタデータ) (2024-03-15T08:44:56Z) - Learning-based Relational Object Matching Across Views [63.63338392484501]
本稿では,RGB画像間のオブジェクト検出をマッチングするための,局所キーポイントと新たなオブジェクトレベルの特徴を組み合わせた学習ベースアプローチを提案する。
我々は、連想グラフニューラルネットワークにおいて、オブジェクト間の外観とフレーム間およびフレーム間空間関係に基づいて、オブジェクトレベルのマッチング機能を訓練する。
論文 参考訳(メタデータ) (2023-05-03T19:36:51Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Part-guided Relational Transformers for Fine-grained Visual Recognition [59.20531172172135]
識別的特徴を学習し,特徴変換モジュールとの相関関係を探索するフレームワークを提案する。
提案手法は,3-of-the-levelオブジェクト認識において,部分ブランチの追加に頼らず,最先端の性能に達する。
論文 参考訳(メタデータ) (2022-12-28T03:45:56Z) - Learning to Detect Good Keypoints to Match Non-Rigid Objects in RGB
Images [7.428474910083337]
本稿では,非剛性画像対応タスクの正マッチ数を最大化するために,新しい学習キーポイント検出手法を提案する。
我々のトレーニングフレームワークは、アノテートされた画像対と予め定義された記述子抽出器をマッチングして得られる真の対応を利用して、畳み込みニューラルネットワーク(CNN)を訓練する。
実験の結果,本手法は平均整合精度で20時までに非剛体物体の実像に対して,最先端のキーポイント検出器よりも優れていた。
論文 参考訳(メタデータ) (2022-12-13T11:59:09Z) - UIA-ViT: Unsupervised Inconsistency-Aware Method based on Vision
Transformer for Face Forgery Detection [52.91782218300844]
そこで我々は、UIA-ViTと呼ばれるビジョン変換器に基づく教師なし不整合認識手法を提案する。
自己注意機構により、パッチ埋め込み間の注意マップは自然に一貫性関係を表現し、一貫性表現学習に適した視覚変換器となる。
論文 参考訳(メタデータ) (2022-10-23T15:24:47Z) - RoRD: Rotation-Robust Descriptors and Orthographic Views for Local
Feature Matching [32.10261486751993]
本稿では,データ拡張と視点投影による不変記述子の学習を組み合わせる新しい枠組みを提案する。
提案手法の有効性をポーズ推定や視覚的位置認識などの重要課題に対して評価する。
論文 参考訳(メタデータ) (2021-03-15T17:40:25Z) - Multi-scale Interactive Network for Salient Object Detection [91.43066633305662]
本稿では,隣接レベルからの機能を統合するためのアグリゲート・インタラクション・モジュールを提案する。
より効率的なマルチスケール機能を得るために、各デコーダユニットに自己相互作用モジュールを埋め込む。
5つのベンチマークデータセットによる実験結果から,提案手法は後処理を一切行わず,23の最先端手法に対して良好に動作することが示された。
論文 参考訳(メタデータ) (2020-07-17T15:41:37Z) - HDD-Net: Hybrid Detector Descriptor with Mutual Interactive Learning [24.13425816781179]
局所的特徴抽出は、SLAMや3D再構成、ARアプリケーションといった分野の進歩により、現在も活発な研究領域である。
両抽出を個別に処理し,学習過程における相互作用に焦点を当てる手法を提案する。
我々は,カメラのローカライゼーション作業に匹敵せず,HPatchの画像マッチングと3次元再構成品質の観点から,技術状況の改善を示す。
論文 参考訳(メタデータ) (2020-05-12T13:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。