論文の概要: DALI: Dynamically Adjusted Label Importance for Noisy Partial Label
Learning
- arxiv url: http://arxiv.org/abs/2301.12077v1
- Date: Sat, 28 Jan 2023 03:42:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 19:15:52.894728
- Title: DALI: Dynamically Adjusted Label Importance for Noisy Partial Label
Learning
- Title(参考訳): DALI:雑音のある部分的なラベル学習におけるラベルの重要性を動的に調整する
- Authors: Mingyu Xu, Zheng Lian, Lei Feng, Bin Liu, Jianhua Tao
- Abstract要約: ノイズのある部分的なラベル学習(ノイズ)は、弱教師付き学習の重要な分野である。
動的適応ラベル重要度(DALI)」という,雑音に対する新しい枠組みを提案する。
これは、初期候補セットとモデル出力を理論的保証でトレーディングすることで、検出エラーの負の影響を低減することを目的としている。
- 参考スコア(独自算出の注目度): 46.53885746394252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Noisy partial label learning (noisy PLL) is an important branch of weakly
supervised learning. Unlike PLL where the ground-truth label must reside in the
candidate set, noisy PLL relaxes this constraint and allows the ground-truth
label may not be in the candidate set. To address this problem, existing works
attempt to detect noisy samples and estimate the ground-truth label for each
noisy sample. However, detection errors are inevitable, and these errors will
accumulate during training and continuously affect model optimization. To
address this challenge, we propose a novel framework for noisy PLL, called
``Dynamically Adjusted Label Importance (DALI)''. It aims to reduce the
negative impact of detection errors by trading off the initial candidate set
and model outputs with theoretical guarantees. Experimental results on multiple
datasets demonstrate that our DALI succeeds over existing state-of-the-art
approaches on noisy PLL. Our code will soon be publicly available.
- Abstract(参考訳): ノイズのある部分ラベル学習(noisy pll)は、弱い教師付き学習の重要な分野である。
基底トラスラベルが候補セットになければならないPLLとは異なり、ノイズPLLはこの制約を緩和し、基底トラスラベルが候補セットに含まれないようにする。
この問題に対処するため、既存の作業ではノイズサンプルを検出し、各ノイズサンプルの接地ラベルを推定しようと試みている。
しかし、検出エラーは避けられず、これらのエラーはトレーニング中に蓄積され、モデル最適化に継続的に影響を及ぼす。
この課題に対処するために,我々は '`Dynamically Adjusted Label Importance (DALI)'' と呼ばれる,ノイズの多いPLLのための新しいフレームワークを提案する。
これは、初期候補セットとモデル出力を理論的保証でトレーディングすることで、検出エラーの負の影響を低減することを目的としている。
複数のデータセットに対する実験結果から、DALIはノイズの多いPLLに対する既存の最先端アプローチに成功していることが示された。
私たちのコードはまもなく公開されます。
関連論文リスト
- Partial Label Learning with a Partner [55.74236846238119]
部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
提案手法は, 未ラベルサンプルの同定と修正を支援するため, 新たなパートナーを導入し, 相互監督のパラダイムを提案する。
論文 参考訳(メタデータ) (2023-12-18T09:09:52Z) - Robust Representation Learning for Unreliable Partial Label Learning [86.909511808373]
部分ラベル学習(Partial Label Learning, PLL)は、弱い教師付き学習の一種で、各トレーニングインスタンスに候補ラベルのセットが割り当てられる。
これはUn Reliable partial Label Learning (UPLL) と呼ばれ、部分ラベルの本質的な信頼性の欠如とあいまいさにより、さらなる複雑さをもたらす。
本研究では,信頼できない部分ラベルに対するモデル強化を支援するために,信頼性に欠けるコントラスト学習を活用するUnreliability-Robust Representation Learning framework(URRL)を提案する。
論文 参考訳(メタデータ) (2023-08-31T13:37:28Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Complementary Classifier Induced Partial Label Learning [54.61668156386079]
部分ラベル学習(PLL)では、各トレーニングサンプルは候補ラベルのセットに関連付けられ、そのうち1つのみが有効である。
曖昧さでは、既存の研究は通常、非候補ラベルセットの有効性を十分に調査しない。
本稿では,非候補ラベルを用いて補完的分類器を誘導し,従来の分類器に対する逆関係を自然に形成する。
論文 参考訳(メタデータ) (2023-05-17T02:13:23Z) - Unreliable Partial Label Learning with Recursive Separation [44.901941653899264]
信頼できない部分ラベル学習(UPLL)が提案され、真のラベルが候補ラベルセットに含まれない可能性がある。
再帰分離を伴う信頼できない部分ラベル学習(UPLLRS)という2段階のフレームワークを提案する。
本手法は,実験結果によって実証された最先端性能を示す。
論文 参考訳(メタデータ) (2023-02-20T10:39:31Z) - ARNet: Automatic Refinement Network for Noisy Partial Label Learning [41.577081851679765]
本稿では,ARNet(Automatic Refinement Network)と呼ばれる新しいフレームワークを提案する。
本手法は,複数ラウンドからなる。各ラウンドにおいて,ノイズ検出とラベル補正という2つの重要なモジュールを通じてノイズサンプルを浄化する。
提案手法がデータセットの雑音レベルを低減し,最終的にベイズを最適に近似できることを示す。
論文 参考訳(メタデータ) (2022-11-09T10:01:25Z) - Label Noise-Robust Learning using a Confidence-Based Sieving Strategy [15.997774467236352]
ラベルノイズを伴うタスクの学習では、オーバーフィッティングに対するモデルの堅牢性を改善することが重要な課題である。
サンプルをノイズのあるラベルで識別し、モデルを学習するのを防ぐことは、この課題に対処するための有望なアプローチである。
本研究では, 信頼度誤差と呼ばれる新しい判別基準と, クリーンサンプルとノイズサンプルを効果的に識別するためのCONFESと呼ばれるシービング戦略を提案する。
論文 参考訳(メタデータ) (2022-10-11T10:47:28Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。