論文の概要: Rethinking Localization Map: Towards Accurate Object Perception with
Self-Enhancement Maps
- arxiv url: http://arxiv.org/abs/2006.05220v2
- Date: Sat, 13 Jun 2020 04:13:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 15:12:46.672635
- Title: Rethinking Localization Map: Towards Accurate Object Perception with
Self-Enhancement Maps
- Title(参考訳): ローカライゼーションマップの再考:自己認識マップによる正確な物体認識に向けて
- Authors: Xiaolin Zhang, Yunchao Wei, Yi Yang, Fei Wu
- Abstract要約: 本研究は, カテゴリーラベルのみを監督として, 正確な対象位置分布マップと対象境界を抽出する, 新たな自己強調手法を提案する。
特に、提案されたセルフエンハンスメントマップは、ILSVRC上で54.88%の最先端のローカライゼーション精度を達成する。
- 参考スコア(独自算出の注目度): 78.2581910688094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, remarkable progress has been made in weakly supervised object
localization (WSOL) to promote object localization maps. The common practice of
evaluating these maps applies an indirect and coarse way, i.e., obtaining tight
bounding boxes which can cover high-activation regions and calculating
intersection-over-union (IoU) scores between the predicted and ground-truth
boxes. This measurement can evaluate the ability of localization maps to some
extent, but we argue that the maps should be measured directly and delicately,
i.e., comparing the maps with the ground-truth object masks pixel-wisely. To
fulfill the direct evaluation, we annotate pixel-level object masks on the
ILSVRC validation set. We propose to use IoU-Threshold curves for evaluating
the real quality of localization maps. Beyond the amended evaluation metric and
annotated object masks, this work also introduces a novel self-enhancement
method to harvest accurate object localization maps and object boundaries with
only category labels as supervision. We propose a two-stage approach to
generate the localization maps by simply comparing the similarity of point-wise
features between the high-activation and the rest pixels. Based on the
predicted localization maps, we explore to estimate object boundaries on a very
large dataset. A hard-negative suppression loss is proposed for obtaining fine
boundaries. We conduct extensive experiments on the ILSVRC and CUB benchmarks.
In particular, the proposed Self-Enhancement Maps achieve the state-of-the-art
localization accuracy of 54.88% on ILSVRC. The code and the annotated masks are
released at https://github.com/xiaomengyc/SEM.
- Abstract(参考訳): 近年,weakly supervised object localization (wsol) において,物体局在マップの促進が目覚ましい進展を遂げている。
これらの地図の評価の一般的な実践は、間接的かつ粗い方法で、すなわち、高い活性化領域をカバーし、予測された接点と接点の接点(IoU)のスコアを計算できる厳密な境界ボックスを得る。
この測定は地図の局所化能力をある程度評価することができるが、地図は直接的かつ微妙に測定されるべきであり、すなわち、地上のトラス・オブジェクト・マスクをピクセル・ワイズに比較すべきである。
直接評価を実現するため,ILSVRC検証セットに画素レベルのオブジェクトマスクを注釈付けする。
本稿では,iou-threshold曲線を用いたローカライゼーションマップの質評価を提案する。
修正された評価基準と注釈付きオブジェクトマスクに加えて、この研究は、厳密なオブジェクトローカライゼーションマップとオブジェクト境界を、監督対象のカテゴリラベルのみで収集する新しい自己強調手法も導入している。
本稿では,高能率画素と残像画素の点次特徴の類似性を比較することで,局所写像を生成するための2段階のアプローチを提案する。
予測されたローカライゼーションマップに基づいて、非常に大きなデータセット上でオブジェクト境界を推定する。
微細な境界を得るために, 強負の抑制損失を提案する。
ILSVRCとCUBベンチマークで広範な実験を行った。
特に、提案されたセルフエンハンスメントマップは、ILSVRC上で54.88%の最先端のローカライゼーション精度を達成する。
コードと注釈付きマスクはhttps://github.com/xiaomengyc/SEMで公開されている。
関連論文リスト
- Background Activation Suppression for Weakly Supervised Object
Localization and Semantic Segmentation [84.62067728093358]
弱教師付きオブジェクトローカライゼーションとセマンティックセグメンテーションは、画像レベルのラベルのみを使用してオブジェクトをローカライズすることを目的としている。
画素レベルのローカライゼーションを実現するために,フォアグラウンド予測マップを生成することで,新たなパラダイムが誕生した。
本稿では,物体の局在化学習過程に関する2つの驚くべき実験結果を示す。
論文 参考訳(メタデータ) (2023-09-22T15:44:10Z) - EgoVM: Achieving Precise Ego-Localization using Lightweight Vectorized
Maps [9.450650025266379]
本稿では,従来の最先端手法に匹敵するローカライズ精度を実現するエンド・ツー・エンドのローカライズネットワークであるEgoVMを提案する。
我々は、学習可能なセマンティック埋め込みを用いて、マップ要素のセマンティックタイプを符号化し、セマンティックセマンティックセグメンテーションでそれらを監督する。
本研究では,頑健なヒストグラムに基づくポーズ解法を用いて,候補ポーズを徹底的に探索することで最適なポーズを推定する。
論文 参考訳(メタデータ) (2023-07-18T06:07:25Z) - Online Map Vectorization for Autonomous Driving: A Rasterization
Perspective [58.71769343511168]
より優れた感度を有し,現実の自律運転シナリオに適した,新化に基づく評価指標を提案する。
また、精度の高い出力に微分可能化を適用し、HDマップの幾何学的監視を行う新しいフレームワークであるMapVR(Map Vectorization via Rasterization)を提案する。
論文 参考訳(メタデータ) (2023-06-18T08:51:14Z) - Constrained Sampling for Class-Agnostic Weakly Supervised Object
Localization [10.542859578763068]
自己監督型視覚変換器は、画像内のオブジェクトの正確なローカライゼーションマップを生成することができる。
本稿では,異なるトランスフォーマーヘッドが生成する複数のマップを利用して,弱い教師付きオブジェクトローカライゼーションモデルをトレーニングする擬似ラベルを取得することを提案する。
論文 参考訳(メタデータ) (2022-09-09T19:58:38Z) - Discriminative Sampling of Proposals in Self-Supervised Transformers for
Weakly Supervised Object Localization [10.542859578763068]
自己監督型視覚変換器は、画像内のオブジェクトの正確なローカライゼーションマップを生成することができる。
本稿では,異なるトランスフォーマーヘッドが生成する複数のマップを利用して,弱い教師付きオブジェクトローカライゼーションモデルをトレーニングする擬似ラベルを取得することを提案する。
論文 参考訳(メタデータ) (2022-09-09T18:33:23Z) - Background Activation Suppression for Weakly Supervised Object
Localization [11.31345656299108]
より効率的な学習を実現するためにアクティベーション値を使うことを議論する。
本稿では,背景活動抑制法(BAS)を提案する。
BASは、CUB-200-2011データセットとILSVRCデータセットのベースラインメソッドに対して、大幅に、一貫した改善を実現している。
論文 参考訳(メタデータ) (2021-12-01T15:53:40Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - A Self-Training Approach for Point-Supervised Object Detection and
Counting in Crowds [54.73161039445703]
本稿では,ポイントレベルのアノテーションのみを用いて訓練された典型的なオブジェクト検出を可能にする,新たな自己学習手法を提案する。
トレーニング中、利用可能なポイントアノテーションを使用して、オブジェクトの中心点の推定を監督する。
実験の結果,本手法は検出タスクとカウントタスクの両方において,最先端のポイント管理手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-07-25T02:14:42Z) - Weakly-Supervised Salient Object Detection via Scribble Annotations [54.40518383782725]
本稿では,スクリブルラベルからサリエンシを学習するための弱教師付きサリエント物体検出モデルを提案する。
そこで本研究では,予測されたサリエンシマップの構造アライメントを測定するために,新しい尺度であるサリエンシ構造尺度を提案する。
我々の手法は、既存の弱教師付き/非教師付き手法よりも優れているだけでなく、いくつかの完全教師付き最先端モデルと同等である。
論文 参考訳(メタデータ) (2020-03-17T12:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。