論文の概要: ALIM: Adjusting Label Importance Mechanism for Noisy Partial Label
Learning
- arxiv url: http://arxiv.org/abs/2301.12077v2
- Date: Thu, 18 May 2023 02:07:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 20:12:41.349291
- Title: ALIM: Adjusting Label Importance Mechanism for Noisy Partial Label
Learning
- Title(参考訳): alim: 雑音部分ラベル学習のためのラベル重要度調整機構
- Authors: Mingyu Xu, Zheng Lian, Lei Feng, Bin Liu, Jianhua Tao
- Abstract要約: 雑音部分ラベル学習は、弱教師付き学習の重要な分野である。
既存の研究のほとんどは、ノイズのあるサンプルを検出し、各ノイズのあるサンプルの基幹構造を推定しようと試みている。
我々は,ALIM(Adjusting Labeling Mechanism)と呼ばれる,理論的な保証を伴う雑音に対する新しい枠組みを提案する。
これは、初期候補セットとモデル出力をトレードオフすることで、検出エラーの負の影響を低減することを目的としている。
- 参考スコア(独自算出の注目度): 46.53885746394252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Noisy partial label learning (noisy PLL) is an important branch of weakly
supervised learning. Unlike PLL where the ground-truth label must conceal in
the candidate label set, noisy PLL relaxes this constraint and allows the
ground-truth label may not be in the candidate label set. To address this
challenging problem, most of the existing works attempt to detect noisy samples
and estimate the ground-truth label for each noisy sample. However, detection
errors are unavoidable. These errors can accumulate during training and
continuously affect model optimization. To this end, we propose a novel
framework for noisy PLL with theoretical guarantees, called ``Adjusting Label
Importance Mechanism (ALIM)''. It aims to reduce the negative impact of
detection errors by trading off the initial candidate set and model outputs.
ALIM is a plug-in strategy that can be integrated with existing PLL approaches.
Experimental results on benchmark datasets demonstrate that our method can
achieve state-of-the-art performance on noisy PLL.
\textcolor[rgb]{0.93,0.0,0.47}{Our code can be found in Supplementary
Material}.
- Abstract(参考訳): ノイズのある部分ラベル学習(noisy pll)は、弱い教師付き学習の重要な分野である。
基底トラックラベルが候補ラベルセットに隠さなければならないPLLとは異なり、ノイズの多いPLLはこの制約を緩和し、基底トラックラベルが候補ラベルセットに含まれないようにする。
この困難な問題に対処するため、既存の作品のほとんどはノイズのサンプルを検出し、各ノイズのラベルを推定しようと試みている。
しかし、検出エラーは避けられない。
これらのエラーはトレーニング中に蓄積され、モデル最適化に継続的に影響を及ぼす。
そこで我々は,「ALIM(Adjusting Label Importance Mechanism)」と呼ばれる理論的保証付きノイズの多いPLLのための新しいフレームワークを提案する。
初期候補セットとモデル出力をトレードオフすることで、検出エラーの負の影響を低減することを目的としている。
ALIMは既存のPLLアプローチと統合可能なプラグイン戦略である。
評価実験の結果,提案手法は雑音の多いPLL上での最先端性能を実現することができることがわかった。
\textcolor[rgb]{0.93,0.0,0.47}{Our コードは補足材料} にある。
関連論文リスト
- Pseudo-labelling meets Label Smoothing for Noisy Partial Label Learning [8.387189407144403]
部分ラベル学習(Partial label learning、PLL)は、各トレーニングインスタンスが候補ラベル(Partial label)のセットとペアリングされる弱い教師付き学習パラダイムである。
NPLLはこの制約を緩和し、一部の部分ラベルが真のラベルを含まないようにし、問題の実用性を高める。
本稿では,近傍の重み付けアルゴリズムを用いて,雑音のある部分ラベルを利用して画像に擬似ラベルを割り当てる最小限のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T13:32:47Z) - Appeal: Allow Mislabeled Samples the Chance to be Rectified in Partial Label Learning [55.4510979153023]
部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
誤記されたサンプルの「アペアル」を支援するため,最初の魅力に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-18T09:09:52Z) - FedNoisy: Federated Noisy Label Learning Benchmark [53.73816587601204]
フェデレーション学習は、クライアントからの機密データを集約することなく、分散学習で人気を集めている。
データ分離の分散と分離の性質は、データ品質によって複雑になり、ノイズの多いラベルに対してより脆弱になる可能性がある。
私たちは、研究者が潜在的にフェデレートされたノイズ設定を十分に調査するのに役立つ、最初の標準ベンチマークを提供しています。
論文 参考訳(メタデータ) (2023-06-20T16:18:14Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Complementary Classifier Induced Partial Label Learning [54.61668156386079]
部分ラベル学習(PLL)では、各トレーニングサンプルは候補ラベルのセットに関連付けられ、そのうち1つのみが有効である。
曖昧さでは、既存の研究は通常、非候補ラベルセットの有効性を十分に調査しない。
本稿では,非候補ラベルを用いて補完的分類器を誘導し,従来の分類器に対する逆関係を自然に形成する。
論文 参考訳(メタデータ) (2023-05-17T02:13:23Z) - ARNet: Automatic Refinement Network for Noisy Partial Label Learning [41.577081851679765]
本稿では,ARNet(Automatic Refinement Network)と呼ばれる新しいフレームワークを提案する。
本手法は,複数ラウンドからなる。各ラウンドにおいて,ノイズ検出とラベル補正という2つの重要なモジュールを通じてノイズサンプルを浄化する。
提案手法がデータセットの雑音レベルを低減し,最終的にベイズを最適に近似できることを示す。
論文 参考訳(メタデータ) (2022-11-09T10:01:25Z) - Label Noise-Robust Learning using a Confidence-Based Sieving Strategy [15.997774467236352]
ラベルノイズを伴うタスクの学習では、オーバーフィッティングに対するモデルの堅牢性を改善することが重要な課題である。
サンプルをノイズのあるラベルで識別し、モデルを学習するのを防ぐことは、この課題に対処するための有望なアプローチである。
本研究では, 信頼度誤差と呼ばれる新しい判別基準と, クリーンサンプルとノイズサンプルを効果的に識別するためのCONFESと呼ばれるシービング戦略を提案する。
論文 参考訳(メタデータ) (2022-10-11T10:47:28Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。