論文の概要: GRM: Gradient Rectification Module for Visual Place Retrieval
- arxiv url: http://arxiv.org/abs/2204.10972v1
- Date: Sat, 23 Apr 2022 01:40:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 09:48:34.842796
- Title: GRM: Gradient Rectification Module for Visual Place Retrieval
- Title(参考訳): GRM: 視覚的位置検索のための勾配整形モジュール
- Authors: Boshu Lei, Wenjie Ding, Limeng Qiao, Xi Qiu
- Abstract要約: 我々は,この現象の原因を解析し,記述子の勾配の劣化分布に起因することを指摘した。
この問題を軽減するため、Gradient Rectification Module(GRM)と呼ばれる新しいモジュールが提案されている。
- 参考スコア(独自算出の注目度): 3.5373500124728476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual place retrieval aims to search images in the database that depict
similar places as the query image. However, global descriptors encoded by the
network usually fall into a low dimensional principal space, which is harmful
to the retrieval performance. We first analyze the cause of this phenomenon,
pointing out that it is due to degraded distribution of the gradients of
descriptors. Then, a new module called Gradient Rectification Module(GRM) is
proposed to alleviate this issue. It can be appended after the final pooling
layer. This module can rectify the gradients to the complement space of the
principal space. Therefore, the network is encouraged to generate descriptors
more uniformly in the whole space. At last, we conduct experiments on multiple
datasets and generalize our method to classification task under prototype
learning framework.
- Abstract(参考訳): 視覚的な場所検索は、クエリ画像と似た場所を描写したデータベース内の画像を検索することを目的としている。
しかし、ネットワークで符号化された大域的ディスクリプタは通常低次元の主空間に陥り、検索性能に悪影響を及ぼす。
まず、この現象の原因を解析し、それが記述子の勾配の劣化分布によるものであることを指摘した。
次に、この問題を軽減するため、Gradient Rectification Module(GRM)と呼ばれる新しいモジュールを提案する。
最終プーリング層の後に追加することができる。
この加群は主空間の補空間への勾配を正すことができる。
したがって、ネットワークは全空間でより均一に記述子を生成することを奨励される。
最後に,複数のデータセットについて実験を行い,プロトタイプ学習フレームワークによる分類タスクに一般化する。
関連論文リスト
- SegVG: Transferring Object Bounding Box to Segmentation for Visual Grounding [56.079013202051094]
ボックスレベルのアノテーションを信号として転送する新しい手法であるSegVGを提案する。
このアプローチでは,ボックスレベルのレグレッションとピクセルレベルのセグメンテーションの両方の信号としてアノテーションを反復的に利用することができる。
論文 参考訳(メタデータ) (2024-07-03T15:30:45Z) - LOGCAN++: Adaptive Local-global class-aware network for semantic segmentation of remote sensing imagery [6.715911889086415]
LOGCAN++はリモートセンシング画像用にカスタマイズされたセマンティックセグメンテーションモデルである。
GCA(Global Class Awareness)モジュールとLCA(Local Class Awareness)モジュールで構成されている。
LCAモジュールは、グローバルクラス表現と間接的にピクセルを関連付けるために、中間知覚要素としてローカルクラス表現を生成する。
論文 参考訳(メタデータ) (2024-06-24T10:12:03Z) - MIANet: Aggregating Unbiased Instance and General Information for
Few-Shot Semantic Segmentation [6.053853367809978]
既存の少数ショットセグメンテーション手法はメタラーニング戦略に基づいて,サポートセットからインスタンス知識を抽出する。
本稿では,多情報集約ネットワーク(MIANet)を提案する。
PASCAL-5iとCOCO-20iの実験により、MIANetは優れた性能を示し、新しい最先端技術を確立した。
論文 参考訳(メタデータ) (2023-05-23T09:36:27Z) - LoG-CAN: local-global Class-aware Network for semantic segmentation of
remote sensing images [4.124381172041927]
リモートセンシング画像にグローバルクラス認識(GCA)モジュールとローカルクラス認識(LCA)モジュールを備えたマルチスケールセマンティックセマンティックセマンティクスネットワークであるLoG-CANを提案する。
特に、LCAモジュールは、背景干渉を回避するためにクラスワイドコンテキストモデリングのグローバル表現をキャプチャし、LCAモジュールは、クラス内のばらつきを減らすために、クラスをグローバルクラス表現と間接的に関連付ける、中間認識要素としてローカルクラス表現を生成する。
論文 参考訳(メタデータ) (2023-03-14T09:44:29Z) - I2F: A Unified Image-to-Feature Approach for Domain Adaptive Semantic
Segmentation [55.633859439375044]
意味的セグメンテーションのための教師なしドメイン適応(UDA)は、重いアノテーション作業から人々を解放する有望なタスクである。
この問題に対処する主要なアイデアは、画像レベルと特徴レベルの両方を共同で実行することである。
本稿では,画像レベルと特徴レベルを統一したセマンティックセグメンテーションのための新しいUDAパイプラインを提案する。
論文 参考訳(メタデータ) (2023-01-03T15:19:48Z) - SPCL: A New Framework for Domain Adaptive Semantic Segmentation via
Semantic Prototype-based Contrastive Learning [6.705297811617307]
ドメイン適応は、ラベル付けされたソースドメインからラベル付けされていないターゲットドメインに知識を転送するのに役立ちます。
本稿では,クラスアライメントを微粒化するための新しい意味的プロトタイプに基づくコントラスト学習フレームワークを提案する。
我々の手法は実装が容易であり、最先端の手法と比較して優れた結果が得られる。
論文 参考訳(メタデータ) (2021-11-24T09:26:07Z) - Memory Regulation and Alignment toward Generalizer RGB-Infrared Person [26.46821443401331]
RGB-IR ReIDは、常に差別的機能を必要としており、見受けられるクラスの過度な機能感度をもたらす。
本稿では,この問題を解決するために,新しい多粒性メモリ制御およびアライメントモジュール(MG-MRA)を提案する。
本手法は,授業の識別的特徴に関するモデルの過度な信頼を緩和する。
論文 参考訳(メタデータ) (2021-09-18T05:55:06Z) - Boosting Few-shot Semantic Segmentation with Transformers [81.43459055197435]
TRansformer-based Few-shot Semantic segmentation Method (TRFS)
我々のモデルは,グローバル・エンハンスメント・モジュール(GEM)とローカル・エンハンスメント・モジュール(LEM)の2つのモジュールから構成される。
論文 参考訳(メタデータ) (2021-08-04T20:09:21Z) - Adversarial Semantic Hallucination for Domain Generalized Semantic
Segmentation [50.14933487082085]
本稿では,クラスワイド・幻覚モジュールとセマンティック・セグメンテーション・モジュールを組み合わせた対向幻覚手法を提案する。
対象とするドメインデータをトレーニングに使用できない場合に,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2021-06-08T07:07:45Z) - Non-Salient Region Object Mining for Weakly Supervised Semantic
Segmentation [64.2719590819468]
弱教師付きセマンティックセグメンテーションのための非塩分領域オブジェクトマイニング手法を提案する。
擬似ラベルの偽陰性率を低減するために、潜在的なオブジェクトマイニングモジュールを提案する。
非サリエント領域マスキングモジュールは、非サリエント領域内のオブジェクトをさらに発見するのに役立ちます。
論文 参考訳(メタデータ) (2021-03-26T16:44:03Z) - Self-Supervised Tuning for Few-Shot Segmentation [82.32143982269892]
Few-shotのセグメンテーションは、アノテートされたサンプルがほとんどない各画像ピクセルにカテゴリラベルを割り当てることを目的としている。
既存のメタラーニング手法では, 画像から抽出した視覚的特徴を埋め込み空間に埋め込むと, カテゴリー別識別記述子の生成に失敗する傾向にある。
本稿では,複数のエピソードにまたがる潜在特徴の分布を,自己分割方式に基づいて動的に調整する適応型フレームワークチューニングを提案する。
論文 参考訳(メタデータ) (2020-04-12T03:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。