論文の概要: Estimating Noisy Class Posterior with Part-level Labels for Noisy Label Learning
- arxiv url: http://arxiv.org/abs/2405.05714v2
- Date: Tue, 2 Jul 2024 07:06:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 07:09:19.914095
- Title: Estimating Noisy Class Posterior with Part-level Labels for Noisy Label Learning
- Title(参考訳): 雑音ラベル学習のための部分レベルラベルを用いた雑音クラス後部推定
- Authors: Rui Zhao, Bin Shi, Jianfei Ruan, Tianze Pan, Bo Dong,
- Abstract要約: 既存の手法は通常、ノイズのあるラベルを持つ分類モデルを訓練することで、ノイズの多いクラス後部を学習する。
本稿では,教師付き情報をパートレベルのラベルで強化し,様々な部分からよりリッチな情報に集中・統合することをモデルに推奨する。
提案手法は理論的に健全であり,実験結果から合成および実世界の雑音評価において実験的に有効であることが示された。
- 参考スコア(独自算出の注目度): 13.502549812291878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In noisy label learning, estimating noisy class posteriors plays a fundamental role for developing consistent classifiers, as it forms the basis for estimating clean class posteriors and the transition matrix. Existing methods typically learn noisy class posteriors by training a classification model with noisy labels. However, when labels are incorrect, these models may be misled to overemphasize the feature parts that do not reflect the instance characteristics, resulting in significant errors in estimating noisy class posteriors. To address this issue, this paper proposes to augment the supervised information with part-level labels, encouraging the model to focus on and integrate richer information from various parts. Specifically, our method first partitions features into distinct parts by cropping instances, yielding part-level labels associated with these various parts. Subsequently, we introduce a novel single-to-multiple transition matrix to model the relationship between the noisy and part-level labels, which incorporates part-level labels into a classifier-consistent framework. Utilizing this framework with part-level labels, we can learn the noisy class posteriors more precisely by guiding the model to integrate information from various parts, ultimately improving the classification performance. Our method is theoretically sound, while experiments show that it is empirically effective in synthetic and real-world noisy benchmarks.
- Abstract(参考訳): ノイズのあるラベル学習において、ノイズのあるクラス後端の推定は、クリーンなクラス後端と遷移行列を推定する基盤を形成するため、一貫した分類器を開発する上で基本的な役割を果たす。
既存の手法は通常、ノイズのあるラベルを持つ分類モデルを訓練することで、ノイズの多いクラス後部を学習する。
しかし、ラベルが正しくない場合、これらのモデルは、インスタンスの特性を反映しない特徴部分を過度に強調し、ノイズのあるクラス後部を推定する重大なエラーをもたらす可能性がある。
この問題に対処するため,本論文では,教師付き情報をパートレベルのラベルで強化し,様々な部分からよりリッチな情報に焦点を合わせることを奨励する。
具体的には,まず,各部位に関連付けられた部分レベルラベルを抽出し,各部位に特徴を分割する。
次に, ノイズレベルラベルと部分レベルラベルの関係をモデル化する, 単一から複数への遷移行列を提案する。
このフレームワークを部分レベルラベルで利用することにより、様々な部分の情報の統合をモデルに誘導し、最終的に分類性能を向上させることで、ノイズのあるクラス後部をより正確に学習することができる。
提案手法は理論的に健全であり,実験結果から合成および実世界の雑音評価において実験的に有効であることが示された。
関連論文リスト
- Multi-Label Noise Transition Matrix Estimation with Label Correlations:
Theory and Algorithm [73.94839250910977]
ノイズの多いマルチラベル学習は、大規模な正確なラベルの収集によって生じる課題により、注目を集めている。
遷移行列の導入は、マルチラベルノイズをモデル化し、統計的に一貫したアルゴリズムの開発に役立つ。
そこで本稿では, アンカーポイントを必要とせずに, ラベル相関を利用した新しい推定器を提案する。
論文 参考訳(メタデータ) (2023-09-22T08:35:38Z) - Rethinking the Value of Labels for Instance-Dependent Label Noise
Learning [43.481591776038144]
実世界のアプリケーションにおけるノイズの多いラベルは、しばしば真のラベルと機能の両方に依存します。
本研究では、ノイズ遷移行列を明示的にモデル化しない新しい深層生成モデルを用いて、インスタンス依存ラベルノイズに対処する。
提案アルゴリズムは,カジュアルな表現学習を活用し,データから高レベルのコンテンツとスタイルの潜伏要素を同時に識別する。
論文 参考訳(メタデータ) (2023-05-10T15:29:07Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - Learning from Multiple Annotators by Incorporating Instance Features [15.643325526074804]
複数のアノテーションから学ぶことは、トレーニングインスタンスから高品質な分類器を誘導することを目的としている。
既存のほとんどのメソッドでは、ラベルがインスタンスの特徴に依存しないアノテータのクラスレベルの混乱行列が採用されている。
混乱行列に基づくアノテータの性能に対するインスタンス特徴の影響を取り入れたノイズ遷移行列を提案する。
論文 参考訳(メタデータ) (2021-06-29T08:07:24Z) - Learning from Noisy Labels for Entity-Centric Information Extraction [17.50856935207308]
エンティティ中心の情報抽出のための単純な共正規化フレームワークを提案する。
これらのモデルはタスク固有の損失と共同最適化され、同様の予測を生成するために正規化される。
結局のところ、トレーニングされたモデルのいずれかを推論に利用できます。
論文 参考訳(メタデータ) (2021-04-17T22:49:12Z) - Noisy Labels Can Induce Good Representations [53.47668632785373]
アーキテクチャがノイズラベルによる学習に与える影響について検討する。
ノイズラベルを用いたトレーニングは,モデルが一般化に乏しい場合でも,有用な隠れ表現を誘導できることを示す。
この発見は、騒々しいラベルで訓練されたモデルを改善する簡単な方法につながります。
論文 参考訳(メタデータ) (2020-12-23T18:58:05Z) - Extended T: Learning with Mixed Closed-set and Open-set Noisy Labels [86.5943044285146]
ラベルノイズ遷移行列$T$は、真のラベルがノイズのあるものへと反転する確率を反映する。
本稿では,閉集合と開集合の混在したラベル雑音下での学習に着目した。
本手法は,従来の最先端のラベル雑音学習法よりも頑健な性能を追求し,混合ラベル雑音をモデル化する。
論文 参考訳(メタデータ) (2020-12-02T02:42:45Z) - Class2Simi: A Noise Reduction Perspective on Learning with Noisy Labels [98.13491369929798]
そこで我々は,ノイズのあるクラスラベルを持つデータポイントを,ノイズの多い類似ラベルを持つデータペアに変換するClass2Simiというフレームワークを提案する。
Class2Simiは、この変換がミニバッチのオンザフライであるだけでなく、モデル予測上の損失をペアワイズに変化させるため、計算的に効率的である。
論文 参考訳(メタデータ) (2020-06-14T07:55:32Z) - Multi-Class Classification from Noisy-Similarity-Labeled Data [98.13491369929798]
雑音に類似したラベル付きデータのみから学習する方法を提案する。
ノイズ遷移行列を用いて、クリーンデータとノイズデータの間にクラス後確率をブリッジする。
雑音のないクラスラベルをインスタンスに割り当てる新しい学習システムを構築した。
論文 参考訳(メタデータ) (2020-02-16T05:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。