論文の概要: ARNet: Automatic Refinement Network for Noisy Partial Label Learning
- arxiv url: http://arxiv.org/abs/2211.04774v2
- Date: Thu, 10 Nov 2022 04:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 13:53:39.999488
- Title: ARNet: Automatic Refinement Network for Noisy Partial Label Learning
- Title(参考訳): ARNet:ノイズのある部分ラベル学習のための自動リファインメントネットワーク
- Authors: Zheng Lian, Mingyu Xu, Lan Chen, Licai Sun, Bin Liu, Jianhua Tao
- Abstract要約: 本稿では,ARNet(Automatic Refinement Network)と呼ばれる新しいフレームワークを提案する。
本手法は,複数ラウンドからなる。各ラウンドにおいて,ノイズ検出とラベル補正という2つの重要なモジュールを通じてノイズサンプルを浄化する。
提案手法がデータセットの雑音レベルを低減し,最終的にベイズを最適に近似できることを示す。
- 参考スコア(独自算出の注目度): 41.577081851679765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partial label learning (PLL) is a typical weakly supervised learning, where
each sample is associated with a set of candidate labels. The basic assumption
of PLL is that the ground-truth label must reside in the candidate set.
However, this assumption may not be satisfied due to the unprofessional
judgment of the annotators, thus limiting the practical application of PLL. In
this paper, we relax this assumption and focus on a more general problem, noisy
PLL, where the ground-truth label may not exist in the candidate set. To
address this challenging problem, we further propose a novel framework called
"Automatic Refinement Network (ARNet)". Our method consists of multiple rounds.
In each round, we purify the noisy samples through two key modules, i.e., noisy
sample detection and label correction. To guarantee the performance of these
modules, we start with warm-up training and automatically select the
appropriate correction epoch. Meanwhile, we exploit data augmentation to
further reduce prediction errors in ARNet. Through theoretical analysis, we
prove that our method is able to reduce the noise level of the dataset and
eventually approximate the Bayes optimal classifier. To verify the
effectiveness of ARNet, we conduct experiments on multiple benchmark datasets.
Experimental results demonstrate that our ARNet is superior to existing
state-of-the-art approaches in noisy PLL. Our code will be made public soon.
- Abstract(参考訳): 部分ラベル学習 (pll) は典型的な弱い教師付き学習であり、各サンプルは候補ラベルのセットに関連付けられる。
PLLの基本的な前提は、基底真実ラベルが候補集合内にある必要があることである。
しかし、この仮定はアノテータの非専門的な判断により満たされず、したがって PLL の実践的適用が制限される。
本稿では,この仮定を緩和し,候補集合に基底ラベルが存在しないような,より一般的な問題である雑音pllに注目する。
この課題に対処するため、我々はさらに「ARNet(Automatic Refinement Network)」と呼ばれる新しいフレームワークを提案する。
本手法は複数ラウンドからなる。
各ラウンドにおいて、ノイズサンプルを2つのキーモジュール、すなわちノイズサンプル検出とラベル補正によって浄化する。
これらのモジュールの性能を保証するため、ウォームアップトレーニングを開始し、適切な修正時期を自動的に選択する。
また,arnetにおける予測誤差をさらに低減するために,データ拡張を利用する。
理論的解析により,本手法がデータセットの雑音レベルを低減し,最終的にベイズ最適分類器を近似できることを示す。
ARNetの有効性を検証するために、複数のベンチマークデータセットで実験を行う。
実験の結果,我々のARNetはノイズの多いPLLにおける既存の最先端アプローチよりも優れていることがわかった。
私たちのコードはもうすぐ公開されるでしょう。
関連論文リスト
- Appeal: Allow Mislabeled Samples the Chance to be Rectified in Partial Label Learning [55.4510979153023]
部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
誤記されたサンプルの「アペアル」を支援するため,最初の魅力に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-18T09:09:52Z) - ALIM: Adjusting Label Importance Mechanism for Noisy Partial Label
Learning [46.53885746394252]
雑音部分ラベル学習は、弱教師付き学習の重要な分野である。
既存の研究のほとんどは、ノイズのあるサンプルを検出し、各ノイズのあるサンプルの基幹構造を推定しようと試みている。
我々は,ALIM(Adjusting Labeling Mechanism)と呼ばれる,理論的な保証を伴う雑音に対する新しい枠組みを提案する。
これは、初期候補セットとモデル出力をトレードオフすることで、検出エラーの負の影響を低減することを目的としている。
論文 参考訳(メタデータ) (2023-01-28T03:42:53Z) - Knockoffs-SPR: Clean Sample Selection in Learning with Noisy Labels [56.81761908354718]
雑音ラベルを用いた学習のための,理論的に保証されたクリーンサンプル選択フレームワークを提案する。
Knockoffs-SPRは、標準的な教師付きトレーニングパイプラインのサンプル選択モジュールと見なすことができる。
さらに、ラベルなしデータとしてノイズデータのサポートを利用する半教師付きアルゴリズムと組み合わせる。
論文 参考訳(メタデータ) (2023-01-02T07:13:28Z) - Class Prototype-based Cleaner for Label Noise Learning [73.007001454085]
半教師付き学習法は、雑音ラベル学習問題に対する現在のSOTAソリューションである。
textbfClass textbfPrototype-based label textbfCleaner。
論文 参考訳(メタデータ) (2022-12-21T04:56:41Z) - Progressive Purification for Instance-Dependent Partial Label Learning [37.65717805892473]
部分ラベル学習 (PLL) は、固定だが未知の候補ラベルが正しい候補ラベルのセットでアノテートされた例から、多クラス分類器を訓練することを目的としている。
候補ラベルは常にインスタンス依存であり、インスタンス依存の例で訓練されたモデルが理想的な例に収束できるという理論的保証はない。
本稿では,POP(PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification
論文 参考訳(メタデータ) (2022-06-02T02:07:12Z) - Scalable Penalized Regression for Noise Detection in Learning with Noisy
Labels [44.79124350922491]
理論的に保証された雑音ラベル検出フレームワークを用いて,雑音ラベルを用いた学習のためのノイズデータの検出と除去を行う。
具体的には,ネットワーク特徴量と1ホットラベルの線形関係をモデル化するためのペナル化回帰を設計する。
多数のカテゴリやトレーニングデータを含むデータセットに対して,フレームワークをスケーラブルにするために,トレーニングセット全体を小片に分割する分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-15T11:09:58Z) - Few-Shot Partial-Label Learning [25.609766770479265]
部分ラベル学習(Partial-label Learning, PLL)は、一般的に、過度に注釈付けされたサンプルをトレーニングすることで、耐雑音性のあるマルチクラスを誘導することに焦点を当てている。
既存の数発の学習アルゴリズムはサポートセットの正確なラベルを仮定する。
本稿では,FsPLL (Few-shot Image Learning) というアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-02T07:03:54Z) - Provably Consistent Partial-Label Learning [120.4734093544867]
部分ラベル学習 (Partial-label Learning, PLL) は多クラス分類問題である。
本稿では,候補ラベル集合の第1世代モデルを提案し,一貫性が保証される2つの新しい手法を開発する。
ベンチマークおよび実世界のデータセットの実験は、提案した生成モデルの有効性と2つの方法の有効性を検証する。
論文 参考訳(メタデータ) (2020-07-17T12:19:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。