論文の概要: Learning Local Features with Context Aggregation for Visual Localization
- arxiv url: http://arxiv.org/abs/2005.12880v2
- Date: Sat, 30 May 2020 16:55:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 00:23:07.037094
- Title: Learning Local Features with Context Aggregation for Visual Localization
- Title(参考訳): 視覚的局所化のためのコンテキストアグリゲーションによる局所的特徴の学習
- Authors: Siyu Hong, Kunhong Li, Yongcong Zhang, Zhiheng Fu, Mengyi Liu and
Yulan Guo
- Abstract要約: キーポイントの検出と記述は多くの視覚応用において不可欠である。
既存のほとんどのメソッドは、コンテキスト情報を考慮せずにローカル特徴を学習するために、検出-then-describeまたは検出-and-describe戦略を使用している。
本稿では,局所特徴の識別性を改善するために,低レベルテキスト情報と高レベル意味文脈情報の融合に着目した。
- 参考スコア(独自算出の注目度): 24.167882373322957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Keypoint detection and description is fundamental yet important in many
vision applications. Most existing methods use detect-then-describe or
detect-and-describe strategy to learn local features without considering their
context information. Consequently, it is challenging for these methods to learn
robust local features. In this paper, we focus on the fusion of low-level
textual information and high-level semantic context information to improve the
discrimitiveness of local features. Specifically, we first estimate a score map
to represent the distribution of potential keypoints according to the quality
of descriptors of all pixels. Then, we extract and aggregate multi-scale
high-level semantic features based by the guidance of the score map. Finally,
the low-level local features and high-level semantic features are fused and
refined using a residual module. Experiments on the challenging local feature
benchmark dataset demonstrate that our method achieves the state-of-the-art
performance in the local feature challenge of the visual localization
benchmark.
- Abstract(参考訳): キーポイントの検出と記述は多くの視覚応用において不可欠である。
既存の手法の多くは、文脈情報を考慮せずに局所的な特徴を学習するために、検出・記述または検出・記述戦略を使用する。
したがって、これらの手法が堅牢な局所的特徴を学習することは困難である。
本稿では,局所特徴の識別性を改善するために,低レベルテキスト情報と高レベル意味文脈情報の融合に注目する。
具体的には、まず、すべての画素のディスクリプタの品質に応じて、潜在的キーポイントの分布を表すスコアマップを推定する。
そこで我々は,スコアマップのガイダンスに基づいて,マルチスケールなハイレベルセマンティックな特徴を抽出し,集約する。
最後に、低レベルのローカル特徴と高レベルのセマンティック特徴は、残余モジュールを使用して融合され、洗練される。
局所的特徴量ベンチマークにおける局所的特徴量評価実験により,本手法が局所的特徴量評価において最先端の性能を達成することを示す。
関連論文リスト
- Self-supervised Learning of Contextualized Local Visual Embeddings [0.0]
Contextualized Local Visual Embeddings (CLoVE) は、密集した予測タスクに適した表現を学習する自己教師型畳み込み方式である。
CLoVEの事前訓練された表現を複数のデータセットでベンチマークする。
CLOVEは、CNNベースのアーキテクチャに対して、下流の4つの密集した予測タスクで最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2023-10-01T00:13:06Z) - Segment Anything Model is a Good Teacher for Local Feature Learning [19.66262816561457]
局所的な特徴の検出と記述は多くのコンピュータビジョンタスクにおいて重要な役割を果たす。
データ駆動型局所特徴学習手法は、訓練にピクセルレベルの対応に頼る必要がある。
本研究では,SAMFeatを教師として導入し,局所的な特徴学習の指導を行う。
論文 参考訳(メタデータ) (2023-09-29T05:29:20Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Enhancing Prototypical Few-Shot Learning by Leveraging the Local-Level
Strategy [75.63022284445945]
既存の作業では、ローカルレベルの機能をすべて混ぜることで、イメージレベルの機能に基づいた、いくつかのショットモデルを構築することがよくあります。
a) 基地と新規カテゴリーの識別的位置バイアスを回避するための地域非依存のトレーニング戦略,(b) 地域レベルの特徴の正確な比較を捉えるための新しい地域レベルの類似度尺度を提案する。
論文 参考訳(メタデータ) (2021-11-08T08:45:15Z) - Capturing Structural Locality in Non-parametric Language Models [85.94669097485992]
非パラメトリック言語モデルに局所性情報を追加するための,単純かつ効果的なアプローチを提案する。
Javaソースコードとウィキペディアテキストという2つの異なる領域の実験では、局所性がモデルの有効性を向上させることが示されている。
論文 参考訳(メタデータ) (2021-10-06T15:53:38Z) - Local Context Attention for Salient Object Segmentation [5.542044768017415]
本研究では,一様表現型アーキテクチャで局所強化特徴写像を生成するための新しいローカルコンテキスト注意ネットワーク(LCANet)を提案する。
提案するネットワークでは,粗い予測と大域的コンテキストの間の相関特徴写像を計算し,アテンショナル・コリレーション・フィルタ (ACF) モジュールを導入している。
いくつかの有能なオブジェクトセグメンテーションデータセットに対して総合的な実験を行い、提案したLCANetの最先端手法に対する優れた性能を実証した。
論文 参考訳(メタデータ) (2020-09-24T09:20:06Z) - Simple and effective localized attribute representations for zero-shot
learning [48.053204004771665]
Zero-shot Learning (ZSL) は、目に見えないクラスとイメージを区別することを目的としている。
本稿では,意味/属性空間における局所化表現を提案する。
提案手法は,ゼロショット学習のための新しいベースラインとして利用することができる。
論文 参考訳(メタデータ) (2020-06-10T16:46:12Z) - Global Context-Aware Progressive Aggregation Network for Salient Object
Detection [117.943116761278]
我々は,低レベルな外観特徴,高レベルな意味特徴,グローバルな文脈特徴を統合化するための新しいネットワークGCPANetを提案する。
提案手法は, 定量的かつ定性的に, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-02T04:26:10Z) - SceneEncoder: Scene-Aware Semantic Segmentation of Point Clouds with A
Learnable Scene Descriptor [51.298760338410624]
本研究では,グローバル情報の効果を高めるために,シーン認識型ガイダンスを付加するSceneEncoderモジュールを提案する。
モジュールはシーン記述子を予測し、シーンに存在するオブジェクトのカテゴリを表現することを学習する。
また,同じラベルを持つ隣接点に対する特徴の識別を伝搬する領域類似度損失を設計する。
論文 参考訳(メタデータ) (2020-01-24T16:53:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。