論文の概要: Adaptive Integration of Partial Label Learning and Negative Learning for
Enhanced Noisy Label Learning
- arxiv url: http://arxiv.org/abs/2312.09505v1
- Date: Fri, 15 Dec 2023 03:06:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 17:28:08.461487
- Title: Adaptive Integration of Partial Label Learning and Negative Learning for
Enhanced Noisy Label Learning
- Title(参考訳): 雑音ラベル学習における部分ラベル学習と負学習の適応的統合
- Authors: Mengmeng Sheng, Zeren Sun, Zhenhuang Cai, Tao Chen, Yichao Zhou,
Yazhou Yao
- Abstract要約: 我々はtextbfNPN というシンプルながら強力なアイデアを提案し,このアイデアは textbfNoisy ラベル学習に革命をもたらす。
我々はNLの全ての非候補ラベルを用いて信頼性の高い補完ラベルを生成し、間接的な監督を通じてモデルロバスト性を高める。
合成劣化データセットと実世界の雑音データセットの両方で実施された実験は、他のSOTA法と比較してNPNの優位性を示している。
- 参考スコア(独自算出の注目度): 23.847160480176697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been significant attention devoted to the effectiveness of various
domains, such as semi-supervised learning, contrastive learning, and
meta-learning, in enhancing the performance of methods for noisy label learning
(NLL) tasks. However, most existing methods still depend on prior assumptions
regarding clean samples amidst different sources of noise (\eg, a pre-defined
drop rate or a small subset of clean samples). In this paper, we propose a
simple yet powerful idea called \textbf{NPN}, which revolutionizes
\textbf{N}oisy label learning by integrating \textbf{P}artial label learning
(PLL) and \textbf{N}egative learning (NL). Toward this goal, we initially
decompose the given label space adaptively into the candidate and complementary
labels, thereby establishing the conditions for PLL and NL. We propose two
adaptive data-driven paradigms of label disambiguation for PLL: hard
disambiguation and soft disambiguation. Furthermore, we generate reliable
complementary labels using all non-candidate labels for NL to enhance model
robustness through indirect supervision. To maintain label reliability during
the later stage of model training, we introduce a consistency regularization
term that encourages agreement between the outputs of multiple augmentations.
Experiments conducted on both synthetically corrupted and real-world noisy
datasets demonstrate the superiority of NPN compared to other state-of-the-art
(SOTA) methods. The source code has been made available at
{\color{purple}{\url{https://github.com/NUST-Machine-Intelligence-Laboratory/NPN}}}.
- Abstract(参考訳): 半教師付き学習、コントラスト学習、メタラーニングといった様々な領域の有効性に注目が集まっており、ノイズラベル学習(NLL)タスクの手法の性能向上に寄与している。
しかし、既存の手法のほとんどは、異なるノイズ源(例えば、事前定義されたドロップレートまたはクリーンサンプルの小さなサブセット)の中でクリーンサンプルに関する事前の仮定に依存している。
本稿では,「textbf{N}oisy」ラベル学習(PLL)と「textbf{N}egative Learning(NL)」を統合することで,「textbf{N}oisy」ラベル学習に革命をもたらす,シンプルだが強力な概念を提案する。
この目的に向けて、まず与えられたラベル空間を候補ラベルと補完ラベルに適応的に分解し、pllとnlの条件を確立する。
PLLにおけるラベル曖昧化の適応的データ駆動パラダイムとして,ハード曖昧化とソフト曖昧化の2つを提案する。
さらに,nlの非候補ラベルを用いて信頼性の高い補完ラベルを生成し,間接的監督によるモデルのロバスト性を高める。
モデル学習の後半段階においてラベル信頼性を維持するために,複数の増補の出力間の一致を促す一貫性規則化用語を導入する。
合成劣化データセットと実世界の雑音データセットの両方で実施された実験は、他のSOTA法と比較してNPNの優位性を示している。
ソースコードは {\color{purple}{\url{https://github.com/NUST-Machine-Intelligence-Laboratory/NPN}}} で公開されている。
関連論文リスト
- SARI: Simplistic Average and Robust Identification based Noisy Partial
Label Learning [9.16240189572645]
部分ラベル学習(Partial label learning、PLL)は、各トレーニングインスタンスが候補ラベル(Partial label)のセットとペアリングされる弱い教師付き学習パラダイムである。
雑音正則化(NPLL)は、一部の部分ラベルが真のラベルを含まないようにすることで、この制約を緩和する。
我々の研究はNPLLを中心に、画像に擬似ラベルを割り当てるSARIと呼ばれる最小限のフレームワークを提示している。
論文 参考訳(メタデータ) (2024-02-07T13:32:47Z) - Partial Label Learning with a Partner [55.74236846238119]
部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
提案手法は, 未ラベルサンプルの同定と修正を支援するため, 新たなパートナーを導入し, 相互監督のパラダイムを提案する。
論文 参考訳(メタデータ) (2023-12-18T09:09:52Z) - Robust Representation Learning for Unreliable Partial Label Learning [86.909511808373]
部分ラベル学習(Partial Label Learning, PLL)は、弱い教師付き学習の一種で、各トレーニングインスタンスに候補ラベルのセットが割り当てられる。
これはUn Reliable partial Label Learning (UPLL) と呼ばれ、部分ラベルの本質的な信頼性の欠如とあいまいさにより、さらなる複雑さをもたらす。
本研究では,信頼できない部分ラベルに対するモデル強化を支援するために,信頼性に欠けるコントラスト学習を活用するUnreliability-Robust Representation Learning framework(URRL)を提案する。
論文 参考訳(メタデータ) (2023-08-31T13:37:28Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Complementary Classifier Induced Partial Label Learning [54.61668156386079]
部分ラベル学習(PLL)では、各トレーニングサンプルは候補ラベルのセットに関連付けられ、そのうち1つのみが有効である。
曖昧さでは、既存の研究は通常、非候補ラベルセットの有効性を十分に調査しない。
本稿では,非候補ラベルを用いて補完的分類器を誘導し,従来の分類器に対する逆関係を自然に形成する。
論文 参考訳(メタデータ) (2023-05-17T02:13:23Z) - Learning from Noisy Labels with Decoupled Meta Label Purifier [33.87292143223425]
ディープニューラルネットワークをノイズラベルでトレーニングすることは、DNNが不正確なラベルを容易に記憶できるため、難しい。
本稿では,DMLPと呼ばれる新しい多段ラベル浄化器を提案する。
DMLPはラベル訂正プロセスをラベルなし表現学習と単純なメタラベル精製器に分離する。
論文 参考訳(メタデータ) (2023-02-14T03:39:30Z) - Context-based Virtual Adversarial Training for Text Classification with
Noisy Labels [1.9508698179748525]
本研究では,テキスト分類器が雑音ラベルに過度に収まらないよう,コンテキストベースの仮想対位訓練(ConVAT)を提案する。
従来の手法とは異なり,提案手法は入力よりも文脈レベルで逆学習を行う。
2種類のラベルノイズを持つ4つのテキスト分類データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-05-29T14:19:49Z) - Unsupervised Domain Adaptive Salient Object Detection Through
Uncertainty-Aware Pseudo-Label Learning [104.00026716576546]
そこで本研究では,手動のアノテーションを使わずに,自然に高いピクセルラベル品質を有する合成・クリーンなラベルから,サリエンスを学習することを提案する。
提案手法は,複数のベンチマークデータセット上で,既存の最先端の深層教師なしSOD法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-26T16:03:55Z) - SENT: Sentence-level Distant Relation Extraction via Negative Training [45.98674099149065]
文レベルのトレーニングにバッグラベルを使用すると、多くのノイズが発生し、パフォーマンスが著しく低下する。
我々は、モデルがこれらの補完ラベルに属さないことに関して、補完ラベルを用いて訓練されるネガティブトレーニング(NT)の使用を提案する。
NTに基づいて,遠隔関係抽出のための文レベルフレームワークであるSENTを提案する。
論文 参考訳(メタデータ) (2021-06-22T06:49:05Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。