論文の概要: The importance of understanding instance-level noisy labels
- arxiv url: http://arxiv.org/abs/2102.05336v1
- Date: Wed, 10 Feb 2021 09:19:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 14:44:38.895226
- Title: The importance of understanding instance-level noisy labels
- Title(参考訳): インスタンスレベルのノイズラベルの理解の重要性
- Authors: Yang Liu
- Abstract要約: まず、サンプル分布の異なるスペクトルからノイズのあるインスタンスを記憶することによる害を定量化する。
次に、ノイズの多いラベルで学習するための人気のあるソリューションが、この害をインスタンスレベルで緩和する方法について分析する。
- 参考スコア(独自算出の注目度): 6.006936459950188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to provide understandings for the effect of an
over-parameterized model, e.g. a deep neural network, memorizing
instance-dependent noisy labels. We first quantify the harms caused by
memorizing noisy instances from different spectra of the sample distribution.
We then analyze how several popular solutions for learning with noisy labels
mitigate this harm at the instance-level. Our analysis reveals new
understandings for when these approaches work, and provides theoretical
justifications for previously reported empirical observations. A key aspect of
the analysis is its focus on each training instance.
- Abstract(参考訳): 本稿では,過度パラメータ化モデルの効果に対する理解を提供することを目的とする。
インスタンス依存のノイズラベルを記憶するディープニューラルネットワーク。
まず,試料分布の異なるスペクトルからノイズインスタンスを記憶することによる害を定量化する。
次に、騒々しいラベルで学習するためのいくつかの一般的なソリューションがインスタンスレベルでこの害を軽減する方法を分析します。
我々の分析では、これらのアプローチがいつ機能するかの新しい理解を明らかにし、以前に報告された経験的観察に対する理論的正当化を提供する。
分析の重要な側面は、各トレーニングインスタンスに焦点を当てることです。
関連論文リスト
- Analyze the Robustness of Classifiers under Label Noise [5.708964539699851]
教師付き学習におけるラベルノイズは、誤ったラベルまたは不正確なラベルによって特徴づけられ、モデル性能を著しく損なう。
本研究は, ラベルノイズが実用的応用に与える影響について, ますます関連する問題に焦点をあてる。
論文 参考訳(メタデータ) (2023-12-12T13:51:25Z) - Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - Learning from Label Proportions by Learning with Label Noise [30.7933303912474]
ラベル比例(LLP)からの学習は、データポイントをバッグに分類する弱い教師付き分類問題である。
ラベル雑音による学習の低減に基づくLLPに対する理論的基礎的なアプローチを提案する。
このアプローチは、複数のデータセットやアーキテクチャにわたるディープラーニングシナリオにおける経験的パフォーマンスの向上を実証する。
論文 参考訳(メタデータ) (2022-03-04T18:52:21Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - Learning to Detect Instance-level Salient Objects Using Complementary
Image Labels [55.049347205603304]
本報告では,本問題に対する第1の弱教師付きアプローチを提案する。
本稿では,候補対象の特定にクラス整合性情報を活用するSaliency Detection Branch,オブジェクト境界をデライン化するためにクラス整合性情報を利用するBundary Detection Branch,サブティナイズ情報を用いたCentroid Detection Branchを提案する。
論文 参考訳(メタデータ) (2021-11-19T10:15:22Z) - Label Noise in Adversarial Training: A Novel Perspective to Study Robust
Overfitting [45.58217741522973]
逆行訓練においてラベルノイズが存在することを示す。
このようなラベルノイズは、正反対例の真のラベル分布とクリーン例から受け継いだラベルとのミスマッチに起因する。
本稿では,ラベルノイズと頑健なオーバーフィッティングに対処するため,ラベルの自動校正手法を提案する。
論文 参考訳(メタデータ) (2021-10-07T01:15:06Z) - Learning to Aggregate and Refine Noisy Labels for Visual Sentiment
Analysis [69.48582264712854]
本研究では,頑健な視覚的感情分析を行うための頑健な学習手法を提案する。
本手法は,トレーニング中にノイズラベルを集約・フィルタリングするために外部メモリに依存している。
公開データセットを用いたラベルノイズを用いた視覚的感情分析のベンチマークを構築した。
論文 参考訳(メタデータ) (2021-09-15T18:18:28Z) - Learning explanations that are hard to vary [75.30552491694066]
例を越えた平均化は、異なる戦略を縫合する記憶とパッチワークのソリューションに有利であることを示す。
そこで我々は論理ANDに基づく単純な代替アルゴリズムを提案し,実験的に検証する。
論文 参考訳(メタデータ) (2020-09-01T10:17:48Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。