論文の概要: Dirichlet-based Per-Sample Weighting by Transition Matrix for Noisy
Label Learning
- arxiv url: http://arxiv.org/abs/2403.02690v1
- Date: Tue, 5 Mar 2024 06:20:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 16:01:04.794676
- Title: Dirichlet-based Per-Sample Weighting by Transition Matrix for Noisy
Label Learning
- Title(参考訳): 雑音ラベル学習のための遷移行列によるディリクレに基づくサンプル単位重み付け
- Authors: HeeSun Bae, Seungjae Shin, Byeonghu Na, Il-Chul Moon
- Abstract要約: 本稿では,再サンプリングに基づく新しい利用法 RENT を提案する。
Rentは、さまざまなベンチマークデータセット上で、再重み付けを含む既存の遷移行列利用法を一貫して上回る。
- 参考スコア(独自算出の注目度): 18.688802981093644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For learning with noisy labels, the transition matrix, which explicitly
models the relation between noisy label distribution and clean label
distribution, has been utilized to achieve the statistical consistency of
either the classifier or the risk. Previous researches have focused more on how
to estimate this transition matrix well, rather than how to utilize it. We
propose good utilization of the transition matrix is crucial and suggest a new
utilization method based on resampling, coined RENT. Specifically, we first
demonstrate current utilizations can have potential limitations for
implementation. As an extension to Reweighting, we suggest the Dirichlet
distribution-based per-sample Weight Sampling (DWS) framework, and compare
reweighting and resampling under DWS framework. With the analyses from DWS, we
propose RENT, a REsampling method with Noise Transition matrix. Empirically,
RENT consistently outperforms existing transition matrix utilization methods,
which includes reweighting, on various benchmark datasets. Our code is
available at \url{https://github.com/BaeHeeSun/RENT}.
- Abstract(参考訳): ノイズラベルを用いた学習では,ノイズラベル分布とクリーンラベル分布の関係を明示的にモデル化した遷移行列を用いて,分類器とリスクの統計的一貫性を実現する。
これまでの研究では、この遷移行列をうまく推定する方法に焦点が当てられていた。
本稿では,遷移行列の有効利用が重要であり,再サンプリングに基づく新しい利用方法を提案する。
具体的には、まず、現在の利用が実装に潜在的な制限を持つことを実証する。
Reweightingの拡張として、Dirichletディストリビューションベースのサンプル単位重みサンプリング(DWS)フレームワークを提案し、DWSフレームワーク下での再重み付けと再サンプリングを比較する。
DWSの分析により,雑音遷移行列を用いた再サンプリング手法であるRENTを提案する。
経験的に、RENTは様々なベンチマークデータセット上で、リ重み付けを含む既存の遷移行列利用法を一貫して上回っている。
私たちのコードは \url{https://github.com/BaeHeeSun/RENT} で利用可能です。
関連論文リスト
- Estimating Instance-dependent Label-noise Transition Matrix using DNNs [66.29979882301265]
ラベルノイズ学習では、遷移行列の推定がホットトピックである。
本稿では,ベイズ最適分布から雑音分布への遷移を直接モデル化する。
この利点を生かして、ディープニューラルネットワークをパラメータ化してベイズラベル遷移行列を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:36:54Z) - Learning Noise Transition Matrix from Only Noisy Labels via Total
Variation Regularization [88.91872713134342]
本稿では,雑音遷移行列を推定し,同時に分類器を学習する理論的基礎付け手法を提案する。
提案手法の有効性を,ベンチマークおよび実世界のデータセットを用いた実験により示す。
論文 参考訳(メタデータ) (2021-02-04T05:09:18Z) - Provably End-to-end Label-Noise Learning without Anchor Points [118.97592870124937]
本稿では,アンカーポイントを使わずにラベルノイズ学習を実現するためのエンドツーエンドフレームワークを提案する。
提案フレームワークでは,クリーンなクラス後確率が十分に分散している場合,遷移行列を同定できる。
論文 参考訳(メタデータ) (2021-02-04T03:59:37Z) - Extended T: Learning with Mixed Closed-set and Open-set Noisy Labels [86.5943044285146]
ラベルノイズ遷移行列$T$は、真のラベルがノイズのあるものへと反転する確率を反映する。
本稿では,閉集合と開集合の混在したラベル雑音下での学習に着目した。
本手法は,従来の最先端のラベル雑音学習法よりも頑健な性能を追求し,混合ラベル雑音をモデル化する。
論文 参考訳(メタデータ) (2020-12-02T02:42:45Z) - Dual T: Reducing Estimation Error for Transition Matrix in Label-noise
Learning [157.2709657207203]
遷移行列を推定する既存の方法は、ノイズのあるクラス後部を推定することに大きく依存している。
雑音のクラス後部を直接推定するのを避けるために中間クラスを導入する。
この中間クラスにより、元の遷移行列は2つの容易に推定できる遷移行列の積に分解できる。
論文 参考訳(メタデータ) (2020-06-14T05:48:20Z) - Meta Transition Adaptation for Robust Deep Learning with Noisy Labels [61.8970957519509]
本研究では,新しいメタ遷移学習戦略を提案する。
具体的には、クリーンなラベル付きメタデータの小さなセットのサウンドガイダンスにより、ノイズ遷移行列と分類器パラメータを相互に改善することができる。
本手法は, 従来技術よりも頑健な性能で, 遷移行列をより正確に抽出することができる。
論文 参考訳(メタデータ) (2020-06-10T07:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。