論文の概要: Appearance-guided Attentive Self-Paced Learning for Unsupervised Salient
Object Detection
- arxiv url: http://arxiv.org/abs/2207.05921v1
- Date: Wed, 13 Jul 2022 02:01:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 15:08:09.463100
- Title: Appearance-guided Attentive Self-Paced Learning for Unsupervised Salient
Object Detection
- Title(参考訳): 教師なしサルエント物体検出のための出現誘導注意自己ペースト学習
- Authors: Huajun Zhou and Bo Qiao and Lingxiao Yang and Jianhuang Lai and
Xiaohua Xie
- Abstract要約: 教師なし有能な物体検出のための外観誘導型目覚まし学習フレームワークを提案する。
本フレームワークは,自己評価学習(SPL)と外観指導の両方を統合学習フレームワークに統合する。
本フレームワークは,既存のUSOD法に対して最先端の性能を達成し,最新のSOD法に匹敵する性能を有する。
- 参考スコア(独自算出の注目度): 67.10779270290305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing Deep-Learning-based (DL-based) Unsupervised Salient Object Detection
(USOD) methods learn saliency information in images based on the prior
knowledge of traditional saliency methods and pretrained deep networks.
However, these methods employ a simple learning strategy to train deep networks
and therefore cannot properly incorporate the "hidden" information of the
training samples into the learning process. Moreover, appearance information,
which is crucial for segmenting objects, is only used as post-process after the
network training process. To address these two issues, we propose a novel
appearance-guided attentive self-paced learning framework for unsupervised
salient object detection. The proposed framework integrates both self-paced
learning (SPL) and appearance guidance into a unified learning framework.
Specifically, for the first issue, we propose an Attentive Self-Paced Learning
(ASPL) paradigm that organizes the training samples in a meaningful order to
excavate gradually more detailed saliency information. Our ASPL facilitates our
framework capable of automatically producing soft attention weights that
measure the learning difficulty of training samples in a purely self-learning
way. For the second issue, we propose an Appearance Guidance Module (AGM),
which formulates the local appearance contrast of each pixel as the probability
of saliency boundary and finds the potential boundary of the target objects by
maximizing the probability. Furthermore, we further extend our framework to
other multi-modality SOD tasks by aggregating the appearance vectors of other
modality data, such as depth map, thermal image or optical flow. Extensive
experiments on RGB, RGB-D, RGB-T and video SOD benchmarks prove that our
framework achieves state-of-the-art performance against existing USOD methods
and is comparable to the latest supervised SOD methods.
- Abstract(参考訳): 既存のDeep-Learning-based (DL-based) Unsupervised Salient Object Detection (USOD) 手法は、従来のSaliencyメソッドや事前訓練されたディープネットワークの知識に基づいて、画像内のSaliency情報を学ぶ。
しかし,これらの手法では,深層ネットワークを学習するための単純な学習戦略を用いるため,学習サンプルの"隠れ"情報を学習プロセスに適切に組み込むことはできない。
さらに、オブジェクトのセグメンテーションに不可欠な外観情報は、ネットワークトレーニング後の後処理としてのみ使用される。
この2つの問題に対処するために,教師なしサルエント物体検出のための出現誘導型注意型自己ペース学習フレームワークを提案する。
提案フレームワークは,自己評価学習(SPL)と外観指導の両方を統合学習フレームワークに統合する。
具体的には,まず,訓練サンプルを有意義な順序で整理し,徐々に詳細な塩分情報を抽出するための注意的自己ペース学習(aspl)パラダイムを提案する。
我々のASPLは、トレーニングサンプルの学習難度を純粋に自己学習的に測定するソフトアテンションウェイトを自動生成できるフレームワークを促進しています。
第2の課題として,各画素の局所的出現コントラストをサリエンシー境界の確率として定式化し,その確率を最大化することで対象オブジェクトのポテンシャル境界を求める出現誘導モジュール(agm)を提案する。
さらに, 深度マップ, 熱画像, および光学フローなどの他のモダリティデータの出現ベクトルを集約することにより, 他のマルチモダリティsodタスクにも拡張する。
RGB, RGB-D, RGB-T, およびビデオSODベンチマークの大規模な実験により、我々のフレームワークは既存のUSOD法に対して最先端のパフォーマンスを達成し、最新のSOD法に匹敵することを示した。
関連論文リスト
- Learning with Instance-Dependent Noisy Labels by Anchor Hallucination and Hard Sample Label Correction [12.317154103998433]
従来のNoisy-Label Learning (NLL) 手法は、トレーニングサンプルの損失分布に基づいて、トレーニングデータをクリーンでノイズの多いセットに分類する。
提案手法は, 清潔さと難易度と難易度を明確に区別する。
修正されたハードサンプルと簡単なサンプルは、その後の半教師付きトレーニングでラベル付きデータとして使用される。
論文 参考訳(メタデータ) (2024-07-10T03:00:14Z) - Mitigating Noisy Supervision Using Synthetic Samples with Soft Labels [13.314778587751588]
ノイズラベルは、特にクラウドソーシングやWeb検索から派生した大規模データセットにおいて、現実世界のデータセットにおいてユビキタスである。
トレーニング中にノイズの多いラベルを過度に適合させる傾向にあるため、ノイズの多いデータセットでディープニューラルネットワークをトレーニングすることは難しい。
ノイズラベルの影響を軽減するために,新しい合成サンプルを用いてモデルを訓練するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-22T04:49:39Z) - Exploiting Low-confidence Pseudo-labels for Source-free Object Detection [54.98300313452037]
Source-free Object Detection (SFOD) は、ラベル付きソースデータにアクセスすることなく、未ラベルのターゲットドメインにソーストレーニングされた検出器を適応することを目的としている。
現在のSFOD法は適応相におけるしきい値に基づく擬似ラベル手法を用いる。
疑似ラベルを最大限に活用するために,高信頼度と低信頼度しきい値を導入する手法を提案する。
論文 参考訳(メタデータ) (2023-10-19T12:59:55Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Unsupervised Domain Adaptive Salient Object Detection Through
Uncertainty-Aware Pseudo-Label Learning [104.00026716576546]
そこで本研究では,手動のアノテーションを使わずに,自然に高いピクセルラベル品質を有する合成・クリーンなラベルから,サリエンスを学習することを提案する。
提案手法は,複数のベンチマークデータセット上で,既存の最先端の深層教師なしSOD法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-26T16:03:55Z) - Hard Sample Aware Noise Robust Learning for Histopathology Image
Classification [4.75542005200538]
病理組織像分類のための新しいハードサンプル認識型ノイズロバスト学習法を提案する。
本研究は, 難燃性難燃性試料と難燃性試料とを識別するため, 簡易・難燃性検出モデルを構築した。
本稿では,雑音抑圧・高強度化(NSHE)方式を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:07:55Z) - Sample Prior Guided Robust Model Learning to Suppress Noisy Labels [8.119439844514973]
本稿では,サンプルの事前知識を発生させることで雑音を抑えるための深層モデルの学習を行う新しいフレームワークPGDFを提案する。
我々のフレームワークは、より有益なハードクリーンなサンプルをクリーンにラベル付けされたセットに保存することができる。
我々は,CIFAR-10とCIFAR-100に基づく合成データセットと,WebVisionとChrothing1Mを用いた実世界のデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2021-12-02T13:09:12Z) - Boosting Semi-Supervised Face Recognition with Noise Robustness [54.342992887966616]
本稿では,自動ラベルによるラベル雑音に対して頑健な半教師付き顔認識に対する効果的な解法を提案する。
そこで我々は,gnが強化するロバストな学習能力に基づく,ノイズロバスト学習ラベリング(nroll)という,半教師付き顔認識ソリューションを開発した。
論文 参考訳(メタデータ) (2021-05-10T14:43:11Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。