論文の概要: Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection
- arxiv url: http://arxiv.org/abs/2112.03650v2
- Date: Wed, 8 Dec 2021 05:53:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 11:56:19.588354
- Title: Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection
- Title(参考訳): 正当性への活性化:教師なし正当性物体検出のための高品質ラベル形成
- Authors: Huajun Zhou and Peijia Chen and Lingxiao Yang and Jianhuang Lai and
Xiaohua Xie
- Abstract要約: 本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
- 参考スコア(独自算出の注目度): 54.92703325989853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised Salient Object Detection (USOD) is of paramount significance for
both industrial applications and downstream tasks. Existing deep-learning (DL)
based USOD methods utilize some low-quality saliency predictions extracted by
several traditional SOD methods as saliency cues, which mainly capture some
conspicuous regions in images. Furthermore, they refine these saliency cues
with the assistant of semantic information, which is obtained from some models
trained by supervised learning in other related vision tasks. In this work, we
propose a two-stage Activation-to-Saliency (A2S) framework that effectively
generates high-quality saliency cues and uses these cues to train a robust
saliency detector. More importantly, no human annotations are involved in our
framework during the whole training process. In the first stage, we transform a
pretrained network (MoCo v2) to aggregate multi-level features to a single
activation map, where an Adaptive Decision Boundary (ADB) is proposed to assist
the training of the transformed network. To facilitate the generation of
high-quality pseudo labels, we propose a loss function to enlarges the feature
distances between pixels and their means. In the second stage, an Online Label
Rectifying (OLR) strategy updates the pseudo labels during the training process
to reduce the negative impact of distractors. In addition, we construct a
lightweight saliency detector using two Residual Attention Modules (RAMs),
which refine the high-level features using the complementary information in
low-level features, such as edges and colors. Extensive experiments on several
SOD benchmarks prove that our framework reports significant performance
compared with existing USOD methods. Moreover, training our framework on 3000
images consumes about 1 hour, which is over 30x faster than previous
state-of-the-art methods.
- Abstract(参考訳): 非教師対象物検出(USOD)は産業アプリケーションと下流タスクの両方において最重要課題である。
既存のディープラーニング(DL)に基づくUDD法では、従来のSOD法によって抽出されたいくつかの低品質な唾液率予測を、主に画像の顕著な領域を捉えている。
さらに,他の視覚タスクで教師付き学習によって訓練されたモデルから得られた意味情報のアシスタントを用いて,これらのサリエンシー手がかりを洗練する。
本研究では,高品質な塩分濃度検出手段を効果的に生成する2段階活性化塩分濃度(A2S)フレームワークを提案する。
さらに重要なのは、トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
第1段階では、事前学習されたネットワーク(moco v2)を、変換されたネットワークのトレーニングを支援するために適応決定境界(adb)が提案される単一のアクティベーションマップに集約する。
高品質な擬似ラベルの生成を容易にするために,画素とその手段間の特徴距離を拡大する損失関数を提案する。
第2段階では、オンラインラベル修正(OLR)戦略がトレーニングプロセス中に擬似ラベルを更新し、邪魔者のネガティブな影響を減らす。
さらに,2つのRAM(Residual Attention Modules)を用いて,エッジやカラーなどの低レベルの特徴を補完する情報を用いて,高レベルの特徴を洗練する軽量なサリエンシ検出器を構築した。
いくつかのSODベンチマークの大規模な実験により、既存のUSOD法と比較して、我々のフレームワークは大きな性能を報告している。
さらに,3000枚の画像上でのフレームワークのトレーニングには1時間程度かかり,従来の最先端の手法よりも30倍以上高速である。
関連論文リスト
- Highly Efficient and Unsupervised Framework for Moving Object Detection in Satellite Videos [0.2023650687546586]
本稿では,SVMODのための高度に効率的な非教師付きフレームワークを提案する。
提案手法は,1024倍画像上で秒間9フレームを処理できるだけでなく,フォアグラウンド・アート・パフォーマンスも実現可能であることを示す。
論文 参考訳(メタデータ) (2024-11-24T16:06:42Z) - Efficient Meta-Learning Enabled Lightweight Multiscale Few-Shot Object Detection in Remote Sensing Images [15.12889076965307]
YOLOv7ワンステージ検出器は、新しいメタラーニングトレーニングフレームワークが組み込まれている。
この変換により、検出器はFSODのタスクに十分対応できると同時に、その固有の軽量化の利点を活かすことができる。
提案検出器の有効性を検証するため, 現状の検出器と性能比較を行った。
論文 参考訳(メタデータ) (2024-04-29T04:56:52Z) - Unified Unsupervised Salient Object Detection via Knowledge Transfer [29.324193170890542]
非教師なしサルエントオブジェクト検出(USOD)は、アノテーションのない性質のために注目を集めている。
本稿では,汎用USODタスクのための統一USODフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-23T05:50:02Z) - 2D Feature Distillation for Weakly- and Semi-Supervised 3D Semantic
Segmentation [92.17700318483745]
合成訓練された2Dセマンティックセマンティックセグメンテーションネットワークから高レベル特徴情報を蒸留するアイデアに基づく画像誘導ネットワーク(IGNet)を提案する。
IGNetは、ScribbleKITTI上の弱い教師付きLiDARセマンティックセマンティックセグメンテーションの最先端の結果を達成し、8%のラベル付きポイントしか持たない完全な教師付きトレーニングに対して最大98%のパフォーマンスを誇っている。
論文 参考訳(メタデータ) (2023-11-27T07:57:29Z) - A Weakly Supervised Learning Framework for Salient Object Detection via
Hybrid Labels [96.56299163691979]
本稿では,ハイブリッドラベル下でのSODタスクに焦点をあてる。
このタスクにおけるラベルノイズと量不均衡の問題に対処するため、我々は3つの洗練されたトレーニング戦略を持つ新しいパイプラインフレームワークを設計する。
5つのSODベンチマーク実験により,本手法は弱教師付き/非教師付き手法と競合する性能を示した。
論文 参考訳(メタデータ) (2022-09-07T06:45:39Z) - Label, Verify, Correct: A Simple Few Shot Object Detection Method [93.84801062680786]
トレーニングセットから高品質な擬似アノテーションを抽出するための簡単な擬似ラベリング手法を提案する。
擬似ラベリングプロセスの精度を向上させるための2つの新しい手法を提案する。
提案手法は,既存手法と比較して,最先端ないし第2の性能を実現する。
論文 参考訳(メタデータ) (2021-12-10T18:59:06Z) - Multi-Scale Aligned Distillation for Low-Resolution Detection [68.96325141432078]
本稿では,高分解能モデルや多分解能モデルから知識を抽出することで,低分解能モデルの性能を向上させることに焦点を当てる。
いくつかのインスタンスレベルの検出タスクとデータセットにおいて,本手法を用いて訓練された低解像度モデルと,従来のマルチスケールトレーニングによる訓練された高解像度モデルとを競合的に処理する。
論文 参考訳(メタデータ) (2021-09-14T12:53:35Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。