論文の概要: DALI: Dynamically Adjusted Label Importance for Noisy Partial Label
Learning
- arxiv url: http://arxiv.org/abs/2301.12077v1
- Date: Sat, 28 Jan 2023 03:42:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 19:15:52.894728
- Title: DALI: Dynamically Adjusted Label Importance for Noisy Partial Label
Learning
- Title(参考訳): DALI:雑音のある部分的なラベル学習におけるラベルの重要性を動的に調整する
- Authors: Mingyu Xu, Zheng Lian, Lei Feng, Bin Liu, Jianhua Tao
- Abstract要約: ノイズのある部分的なラベル学習(ノイズ)は、弱教師付き学習の重要な分野である。
動的適応ラベル重要度(DALI)」という,雑音に対する新しい枠組みを提案する。
これは、初期候補セットとモデル出力を理論的保証でトレーディングすることで、検出エラーの負の影響を低減することを目的としている。
- 参考スコア(独自算出の注目度): 46.53885746394252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Noisy partial label learning (noisy PLL) is an important branch of weakly
supervised learning. Unlike PLL where the ground-truth label must reside in the
candidate set, noisy PLL relaxes this constraint and allows the ground-truth
label may not be in the candidate set. To address this problem, existing works
attempt to detect noisy samples and estimate the ground-truth label for each
noisy sample. However, detection errors are inevitable, and these errors will
accumulate during training and continuously affect model optimization. To
address this challenge, we propose a novel framework for noisy PLL, called
``Dynamically Adjusted Label Importance (DALI)''. It aims to reduce the
negative impact of detection errors by trading off the initial candidate set
and model outputs with theoretical guarantees. Experimental results on multiple
datasets demonstrate that our DALI succeeds over existing state-of-the-art
approaches on noisy PLL. Our code will soon be publicly available.
- Abstract(参考訳): ノイズのある部分ラベル学習(noisy pll)は、弱い教師付き学習の重要な分野である。
基底トラスラベルが候補セットになければならないPLLとは異なり、ノイズPLLはこの制約を緩和し、基底トラスラベルが候補セットに含まれないようにする。
この問題に対処するため、既存の作業ではノイズサンプルを検出し、各ノイズサンプルの接地ラベルを推定しようと試みている。
しかし、検出エラーは避けられず、これらのエラーはトレーニング中に蓄積され、モデル最適化に継続的に影響を及ぼす。
この課題に対処するために,我々は '`Dynamically Adjusted Label Importance (DALI)'' と呼ばれる,ノイズの多いPLLのための新しいフレームワークを提案する。
これは、初期候補セットとモデル出力を理論的保証でトレーディングすることで、検出エラーの負の影響を低減することを目的としている。
複数のデータセットに対する実験結果から、DALIはノイズの多いPLLに対する既存の最先端アプローチに成功していることが示された。
私たちのコードはまもなく公開されます。
関連論文リスト
- Pseudo-labelling meets Label Smoothing for Noisy Partial Label Learning [8.387189407144403]
部分ラベル学習(Partial label learning、PLL)は、各トレーニングインスタンスが候補ラベル(Partial label)のセットとペアリングされる弱い教師付き学習パラダイムである。
NPLLはこの制約を緩和し、一部の部分ラベルが真のラベルを含まないようにし、問題の実用性を高める。
本稿では,近傍の重み付けアルゴリズムを用いて,雑音のある部分ラベルを利用して画像に擬似ラベルを割り当てる最小限のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T13:32:47Z) - Appeal: Allow Mislabeled Samples the Chance to be Rectified in Partial Label Learning [55.4510979153023]
部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
誤記されたサンプルの「アペアル」を支援するため,最初の魅力に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-18T09:09:52Z) - FedNoisy: Federated Noisy Label Learning Benchmark [53.73816587601204]
フェデレーション学習は、クライアントからの機密データを集約することなく、分散学習で人気を集めている。
データ分離の分散と分離の性質は、データ品質によって複雑になり、ノイズの多いラベルに対してより脆弱になる可能性がある。
私たちは、研究者が潜在的にフェデレートされたノイズ設定を十分に調査するのに役立つ、最初の標準ベンチマークを提供しています。
論文 参考訳(メタデータ) (2023-06-20T16:18:14Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Complementary Classifier Induced Partial Label Learning [54.61668156386079]
部分ラベル学習(PLL)では、各トレーニングサンプルは候補ラベルのセットに関連付けられ、そのうち1つのみが有効である。
曖昧さでは、既存の研究は通常、非候補ラベルセットの有効性を十分に調査しない。
本稿では,非候補ラベルを用いて補完的分類器を誘導し,従来の分類器に対する逆関係を自然に形成する。
論文 参考訳(メタデータ) (2023-05-17T02:13:23Z) - ARNet: Automatic Refinement Network for Noisy Partial Label Learning [41.577081851679765]
本稿では,ARNet(Automatic Refinement Network)と呼ばれる新しいフレームワークを提案する。
本手法は,複数ラウンドからなる。各ラウンドにおいて,ノイズ検出とラベル補正という2つの重要なモジュールを通じてノイズサンプルを浄化する。
提案手法がデータセットの雑音レベルを低減し,最終的にベイズを最適に近似できることを示す。
論文 参考訳(メタデータ) (2022-11-09T10:01:25Z) - Label Noise-Robust Learning using a Confidence-Based Sieving Strategy [15.997774467236352]
ラベルノイズを伴うタスクの学習では、オーバーフィッティングに対するモデルの堅牢性を改善することが重要な課題である。
サンプルをノイズのあるラベルで識別し、モデルを学習するのを防ぐことは、この課題に対処するための有望なアプローチである。
本研究では, 信頼度誤差と呼ばれる新しい判別基準と, クリーンサンプルとノイズサンプルを効果的に識別するためのCONFESと呼ばれるシービング戦略を提案する。
論文 参考訳(メタデータ) (2022-10-11T10:47:28Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。