論文の概要: IRNet: Iterative Refinement Network for Noisy Partial Label Learning
- arxiv url: http://arxiv.org/abs/2211.04774v6
- Date: Wed, 08 Oct 2025 09:10:25 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-10-09 12:48:27.704007
- Title: IRNet: Iterative Refinement Network for Noisy Partial Label Learning
- Title(参考訳): IRNet:ノイズのある部分的ラベル学習のための反復的リファインメントネットワーク
- Authors: Zheng Lian, Mingyu Xu, Lan Chen, Licai Sun, Bin Liu, Lei Feng, Jianhua Tao,
- Abstract要約: 部分ラベル学習(Partial label learning, PLL)は、典型的な弱教師付き学習であり、各サンプルは候補ラベルのセットに関連付けられている。
本稿では,2つのキーモジュールを介しノイズの多いサンプルを浄化することを目的とした,IRNet'と呼ばれる新しいフレームワークを提案する。
我々は、IRNetがデータセットのノイズレベルを低減し、最終的にベイズ最適分類器を近似できることを示す。
- 参考スコア(独自算出の注目度): 37.96654331070641
- License:
- Abstract: Partial label learning (PLL) is a typical weakly supervised learning, where each sample is associated with a set of candidate labels. Its basic assumption is that the ground-truth label must be in the candidate set, but this assumption may not be satisfied due to the unprofessional judgment of annotators. Therefore, we relax this assumption and focus on a more general task, noisy PLL, where the ground-truth label may not exist in the candidate set. To address this challenging task, we propose a novel framework called ``Iterative Refinement Network (IRNet)'', aiming to purify noisy samples through two key modules (i.e., noisy sample detection and label correction). To achieve better performance, we exploit smoothness constraints to reduce prediction errors in these modules. Through theoretical analysis, we prove that IRNet is able to reduce the noise level of the dataset and eventually approximate the Bayes optimal classifier. Meanwhile, IRNet is a plug-in strategy that can be integrated with existing PLL approaches. Experimental results on multiple benchmark datasets show that IRNet outperforms state-of-the-art approaches on noisy PLL. Our source code is available at: https://github.com/zeroQiaoba/IRNet.
- Abstract(参考訳): 部分ラベル学習(Partial label learning, PLL)は、典型的な弱教師付き学習であり、各サンプルは候補ラベルのセットに関連付けられている。
その基本的な仮定は、基底真実ラベルは候補集合にある必要があるが、アノテーターの非専門的な判断のため、この仮定は満たされないかもしれない。
したがって、この仮定を緩和し、より一般的なタスクであるノイズPLLに焦点をあてる。
この課題に対処するため,<Iterative Refinement Network (IRNet)'と呼ばれる新しいフレームワークを提案する。
性能向上のために,これらのモジュールの予測誤差を低減するためにスムーズな制約を利用する。
理論的解析により、IRNetはデータセットのノイズレベルを減らし、最終的にベイズ最適分類器を近似できることを示す。
一方、IRNetは既存のPLLアプローチと統合可能なプラグイン戦略である。
複数のベンチマークデータセットの実験結果から、IRNetはノイズの多いPLLにおける最先端のアプローチよりも優れていた。
私たちのソースコードは、https://github.com/zeroQiaoba/IRNet.comで公開されています。
関連論文リスト
- Realistic Evaluation of Deep Partial-Label Learning Algorithms [94.79036193414058]
部分ラベル学習(Partial-label Learning, PLL)は、各サンプルが複数の候補ラベルに関連付けられている弱い教師付き学習問題である。
近年,モデル性能向上のために多くのディープアルゴリズムが開発されている。
初期のアルゴリズムは、しばしば過小評価され、複雑な設計で多くの後のアルゴリズムより優れている。
論文 参考訳(メタデータ) (2025-02-14T14:22:16Z) - Appeal: Allow Mislabeled Samples the Chance to be Rectified in Partial Label Learning [55.4510979153023]
部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
誤記されたサンプルの「アペアル」を支援するため,最初の魅力に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-18T09:09:52Z) - ALIM: Adjusting Label Importance Mechanism for Noisy Partial Label
Learning [46.53885746394252]
雑音部分ラベル学習は、弱教師付き学習の重要な分野である。
既存の研究のほとんどは、ノイズのあるサンプルを検出し、各ノイズのあるサンプルの基幹構造を推定しようと試みている。
我々は,ALIM(Adjusting Labeling Mechanism)と呼ばれる,理論的な保証を伴う雑音に対する新しい枠組みを提案する。
これは、初期候補セットとモデル出力をトレードオフすることで、検出エラーの負の影響を低減することを目的としている。
論文 参考訳(メタデータ) (2023-01-28T03:42:53Z) - Knockoffs-SPR: Clean Sample Selection in Learning with Noisy Labels [56.81761908354718]
雑音ラベルを用いた学習のための,理論的に保証されたクリーンサンプル選択フレームワークを提案する。
Knockoffs-SPRは、標準的な教師付きトレーニングパイプラインのサンプル選択モジュールと見なすことができる。
さらに、ラベルなしデータとしてノイズデータのサポートを利用する半教師付きアルゴリズムと組み合わせる。
論文 参考訳(メタデータ) (2023-01-02T07:13:28Z) - Class Prototype-based Cleaner for Label Noise Learning [73.007001454085]
半教師付き学習法は、雑音ラベル学習問題に対する現在のSOTAソリューションである。
textbfClass textbfPrototype-based label textbfCleaner。
論文 参考訳(メタデータ) (2022-12-21T04:56:41Z) - Progressive Purification for Instance-Dependent Partial Label Learning [37.65717805892473]
部分ラベル学習 (PLL) は、固定だが未知の候補ラベルが正しい候補ラベルのセットでアノテートされた例から、多クラス分類器を訓練することを目的としている。
候補ラベルは常にインスタンス依存であり、インスタンス依存の例で訓練されたモデルが理想的な例に収束できるという理論的保証はない。
本稿では,POP(PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification
論文 参考訳(メタデータ) (2022-06-02T02:07:12Z) - Scalable Penalized Regression for Noise Detection in Learning with Noisy
Labels [44.79124350922491]
理論的に保証された雑音ラベル検出フレームワークを用いて,雑音ラベルを用いた学習のためのノイズデータの検出と除去を行う。
具体的には,ネットワーク特徴量と1ホットラベルの線形関係をモデル化するためのペナル化回帰を設計する。
多数のカテゴリやトレーニングデータを含むデータセットに対して,フレームワークをスケーラブルにするために,トレーニングセット全体を小片に分割する分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-15T11:09:58Z) - Few-Shot Partial-Label Learning [25.609766770479265]
部分ラベル学習(Partial-label Learning, PLL)は、一般的に、過度に注釈付けされたサンプルをトレーニングすることで、耐雑音性のあるマルチクラスを誘導することに焦点を当てている。
既存の数発の学習アルゴリズムはサポートセットの正確なラベルを仮定する。
本稿では,FsPLL (Few-shot Image Learning) というアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-02T07:03:54Z) - Provably Consistent Partial-Label Learning [120.4734093544867]
部分ラベル学習 (Partial-label Learning, PLL) は多クラス分類問題である。
本稿では,候補ラベル集合の第1世代モデルを提案し,一貫性が保証される2つの新しい手法を開発する。
ベンチマークおよび実世界のデータセットの実験は、提案した生成モデルの有効性と2つの方法の有効性を検証する。
論文 参考訳(メタデータ) (2020-07-17T12:19:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。