論文の概要: Latent Class-Conditional Noise Model
- arxiv url: http://arxiv.org/abs/2302.09595v1
- Date: Sun, 19 Feb 2023 15:24:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 17:31:01.342719
- Title: Latent Class-Conditional Noise Model
- Title(参考訳): 潜在クラス条件雑音モデル
- Authors: Jiangchao Yao, Bo Han, Zhihan Zhou, Ya Zhang, Ivor W. Tsang
- Abstract要約: 本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
- 参考スコア(独自算出の注目度): 54.56899309997246
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Learning with noisy labels has become imperative in the Big Data era, which
saves expensive human labors on accurate annotations. Previous
noise-transition-based methods have achieved theoretically-grounded performance
under the Class-Conditional Noise model (CCN). However, these approaches builds
upon an ideal but impractical anchor set available to pre-estimate the noise
transition. Even though subsequent works adapt the estimation as a neural
layer, the ill-posed stochastic learning of its parameters in back-propagation
easily falls into undesired local minimums. We solve this problem by
introducing a Latent Class-Conditional Noise model (LCCN) to parameterize the
noise transition under a Bayesian framework. By projecting the noise transition
into the Dirichlet space, the learning is constrained on a simplex
characterized by the complete dataset, instead of some ad-hoc parametric space
wrapped by the neural layer. We then deduce a dynamic label regression method
for LCCN, whose Gibbs sampler allows us efficiently infer the latent true
labels to train the classifier and to model the noise. Our approach safeguards
the stable update of the noise transition, which avoids previous arbitrarily
tuning from a mini-batch of samples. We further generalize LCCN to different
counterparts compatible with open-set noisy labels, semi-supervised learning as
well as cross-model training. A range of experiments demonstrate the advantages
of LCCN and its variants over the current state-of-the-art methods.
- Abstract(参考訳): ノイズの多いラベルによる学習はビッグデータ時代に必須となり、正確なアノテーションに人件費を節約している。
従来のノイズ遷移に基づく手法は、CCN(Class-Conditional Noise Model)の下で理論的に基礎的な性能を達成した。
しかし、これらのアプローチは、ノイズ遷移を事前に見積もるために利用可能な理想的だが非現実的アンカーセットに基づいている。
その後の研究は神経層としての推定に適応するが、後方伝播におけるパラメータの不正な確率的学習は、望ましくない局所的な最小値に容易に該当する。
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためにLCCN(Latent Class-Conditional Noise Model)を導入することで,この問題を解決する。
ディリクレ空間にノイズ遷移を投影することで、学習は、神経層で包まれたアドホックなパラメトリック空間ではなく、完全なデータセットによって特徴づけられる単純性に制約される。
lccnの動的ラベル回帰法を推定し,gibbsサンプラーを用いて,潜在真のラベルを効率的に推定し,分類器を訓練し,ノイズをモデル化する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
さらに、オープンセットノイズラベル、半教師あり学習、およびクロスモデルトレーニングと互換性のある異なるラベルにLCCNを一般化する。
様々な実験が、現在の最先端手法よりもLCCNとその変種が優れていることを実証している。
関連論文リスト
- Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Instance-dependent Noisy-label Learning with Graphical Model Based Noise-rate Estimation [16.283722126438125]
ラベルノイズ学習(LNL)は、クリーンでノイズの多いラベルサンプルを区別するためにサンプル選択段階を組み込む。
このようなカリキュラムは、トレーニングセットの実際のラベルノイズ率を考慮していないため、準最適である。
本稿では,ほとんどのSOTA (State-of-the-art) LNL法と容易に統合できる新しいノイズレート推定法を用いて,この問題に対処する。
論文 参考訳(メタデータ) (2023-05-31T01:46:14Z) - Learning from Noisy Labels with Coarse-to-Fine Sample Credibility
Modeling [22.62790706276081]
ノイズの多いラベルでディープニューラルネットワーク(DNN)を訓練することは事実上難しい。
従来の取り組みでは、統合されたデノナイジングフローで部分データや完全なデータを扱う傾向があります。
本研究では,ノイズの多いデータを分割・分散的に処理するために,CREMAと呼ばれる粗大な頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-23T02:06:38Z) - Identifying Hard Noise in Long-Tailed Sample Distribution [76.16113794808001]
NLT(Noisy Long-Tailed Classification)を紹介する。
ほとんどのノイズ除去法は、ハードノイズを特定するのに失敗する。
我々はH2E(Hard-to-Easy)と呼ばれる反復的な雑音学習フレームワークを設計する。
論文 参考訳(メタデータ) (2022-07-27T09:03:03Z) - Hard Sample Aware Noise Robust Learning for Histopathology Image
Classification [4.75542005200538]
病理組織像分類のための新しいハードサンプル認識型ノイズロバスト学習法を提案する。
本研究は, 難燃性難燃性試料と難燃性試料とを識別するため, 簡易・難燃性検出モデルを構築した。
本稿では,雑音抑圧・高強度化(NSHE)方式を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:07:55Z) - Open-set Label Noise Can Improve Robustness Against Inherent Label Noise [27.885927200376386]
オープンセットノイズラベルは非毒性であり, 固有ノイズラベルに対するロバスト性にも寄与することを示した。
本研究では,動的雑音ラベル(ODNL)を用いたオープンセットサンプルをトレーニングに導入することで,シンプルかつ効果的な正規化を提案する。
論文 参考訳(メタデータ) (2021-06-21T07:15:50Z) - Training Classifiers that are Universally Robust to All Label Noise
Levels [91.13870793906968]
ディープニューラルネットワークは、ラベルノイズの存在下で過度に適合する傾向がある。
ポジティヴ・アンラベルラーニングの新たなサブカテゴリを取り入れた蒸留ベースのフレームワークを提案する。
我々の枠組みは概して中~高騒音レベルにおいて優れています。
論文 参考訳(メタデータ) (2021-05-27T13:49:31Z) - GANs for learning from very high class conditional noisy labels [1.6516902135723865]
我々は、GAN(Generative Adversarial Networks)を用いて、バイナリ分類のためのクラス条件付きラベルノイズ(CCN)ロバストなスキームを設計する。
まず、ノイズラベル付きデータと0.1%または1%クリーンラベルから正しいラベル付きデータポイントのセットを生成する。
論文 参考訳(メタデータ) (2020-10-19T15:01:11Z) - Shape Matters: Understanding the Implicit Bias of the Noise Covariance [76.54300276636982]
勾配降下のノイズはパラメータ化モデルに対するトレーニングにおいて重要な暗黙の正則化効果をもたらす。
ミニバッチやラベルの摂動によって引き起こされるパラメータ依存ノイズはガウスノイズよりもはるかに効果的であることを示す。
分析の結果,パラメータ依存ノイズは局所最小値に偏りを生じさせるが,球状ガウス雑音は生じないことがわかった。
論文 参考訳(メタデータ) (2020-06-15T18:31:02Z) - Meta Transition Adaptation for Robust Deep Learning with Noisy Labels [61.8970957519509]
本研究では,新しいメタ遷移学習戦略を提案する。
具体的には、クリーンなラベル付きメタデータの小さなセットのサウンドガイダンスにより、ノイズ遷移行列と分類器パラメータを相互に改善することができる。
本手法は, 従来技術よりも頑健な性能で, 遷移行列をより正確に抽出することができる。
論文 参考訳(メタデータ) (2020-06-10T07:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。