論文の概要: Can Less be More? When Increasing-to-Balancing Label Noise Rates
Considered Beneficial
- arxiv url: http://arxiv.org/abs/2107.05913v1
- Date: Tue, 13 Jul 2021 08:31:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 14:53:16.572663
- Title: Can Less be More? When Increasing-to-Balancing Label Noise Rates
Considered Beneficial
- Title(参考訳): あまり多くはないでしょうか?
ラベル雑音の増加が有益である場合
- Authors: Yang Liu and Jialu Wang
- Abstract要約: 特定のインスタンスのラベルノイズ率を増大させることによって導入されたトレードオフを定量化する。
本稿では,雑音ラベルを用いた学習にラベルノイズを挿入する手法を提案する。
- 参考スコア(独自算出の注目度): 7.299247713124782
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we answer the question when inserting label noise (less
informative labels) can instead return us more accurate and fair models. We are
primarily inspired by two observations that 1) increasing a certain class of
instances' label noise to balance the noise rates (increasing-to-balancing)
results in an easier learning problem; 2) Increasing-to-balancing improves
fairness guarantees against label bias. In this paper, we will first quantify
the trade-offs introduced by increasing a certain group of instances' label
noise rate w.r.t. the learning difficulties and performance guarantees. We
analytically demonstrate when such an increase proves to be beneficial, in
terms of either improved generalization errors or the fairness guarantees. Then
we present a method to leverage our idea of inserting label noise for the task
of learning with noisy labels, either without or with a fairness constraint.
The primary technical challenge we face is due to the fact that we would not
know which data instances are suffering from higher noise, and we would not
have the ground truth labels to verify any possible hypothesis. We propose a
detection method that informs us which group of labels might suffer from higher
noise, without using ground truth information. We formally establish the
effectiveness of the proposed solution and demonstrate it with extensive
experiments.
- Abstract(参考訳): 本稿では,ラベルノイズを挿入した場合(報知ラベルなし)に,より正確で公平なモデルを返すことができるという疑問に答える。
我々は,1)特定の種類のラベルノイズを増加させ,ノイズ率(バランス向上)をバランスさせると学習が容易になる,2)ラベルバイアスに対する公平性が向上する,という2つの観察から着想を得た。
本稿では,あるインスタンスのラベルノイズ率w.r.tを増大させることによって導入されたトレードオフを,まず定量化する。
学習の困難とパフォーマンスの保証です
一般化誤差の改善や公平性保証の観点から,このような増大が有益であることを解析的に示す。
そこで本研究では,雑音ラベルを用いた学習において,フェアネス制約の有無にかかわらずラベルノイズを挿入する手法を提案する。
私たちが直面している主な技術的課題は、どのデータインスタンスが高ノイズに悩まされているのかわからないこと、そして仮説を検証するための基礎となる真理ラベルがないという事実です。
本研究では,どのラベル群が高騒音に悩まされているかを,真理情報を用いることなく検出する手法を提案する。
提案手法の有効性を正式に確立し,広範な実験により実証する。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Learning under Label Noise through Few-Shot Human-in-the-Loop Refinement [37.4838454216137]
FHLR(Few-Shot Human-in-the-Loop Refinement)は、雑音ラベル学習のための新しいソリューションである。
雑音ラベルから学習するとFHLRの性能が著しく向上することを示す。
我々の研究は、ハイテイクなヘルスセンシングベンチマークでより良い一般化を達成するだけでなく、ノイズが一般的に使われているモデルにどのように影響するかにも光を当てています。
論文 参考訳(メタデータ) (2024-01-25T11:43:35Z) - A law of adversarial risk, interpolation, and label noise [6.980076213134384]
教師付き学習では,データ中のラベルノイズが,多くの状況下でテスト精度に悪影響を与えることなく補間できることが示されている。
本稿では,ラベルノイズの補間が逆方向の脆弱性を引き起こすことを示し,ラベルノイズと逆方向のリスクの依存性を示す最初の定理をデータ分布の観点から証明する。
論文 参考訳(メタデータ) (2022-07-08T14:34:43Z) - Two Wrongs Don't Make a Right: Combating Confirmation Bias in Learning
with Label Noise [6.303101074386922]
Robust Label Refurbishment (Robust LR) は、擬似ラベルと信頼度推定技術を組み込んだ新しいハイブリッド手法である。
本手法はラベルノイズと確認バイアスの両方の損傷を軽減できることを示す。
例えば、Robust LRは、実世界のノイズデータセットであるWebVisionにおいて、以前の最高値よりも最大4.5%の絶対的トップ1精度の向上を実現している。
論文 参考訳(メタデータ) (2021-12-06T12:10:17Z) - Robust Long-Tailed Learning under Label Noise [50.00837134041317]
本研究では,長期ラベル分布におけるラベルノイズ問題について検討する。
本稿では,長期学習のための雑音検出を実現する頑健なフレームワークAlgoを提案する。
我々のフレームワークは、半教師付き学習アルゴリズムを自然に活用して一般化をさらに改善することができる。
論文 参考訳(メタデータ) (2021-08-26T03:45:00Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - Class2Simi: A Noise Reduction Perspective on Learning with Noisy Labels [98.13491369929798]
そこで我々は,ノイズのあるクラスラベルを持つデータポイントを,ノイズの多い類似ラベルを持つデータペアに変換するClass2Simiというフレームワークを提案する。
Class2Simiは、この変換がミニバッチのオンザフライであるだけでなく、モデル予測上の損失をペアワイズに変化させるため、計算的に効率的である。
論文 参考訳(メタデータ) (2020-06-14T07:55:32Z) - NoiseRank: Unsupervised Label Noise Reduction with Dependence Models [11.08987870095179]
マルコフランダム場(MRF)を用いた教師なしラベル雑音低減のためのノイズRankを提案する。
本研究では,データセットに誤ってラベル付けされたインスタンスの後方確率と,その推定確率に基づいてランク付けされたインスタンスを推定する依存性モデルを構築した。
NORankはFood101-N(20%ノイズ)の最先端分類を改善し、高雑音クローティング-1M(40%ノイズ)に有効である
論文 参考訳(メタデータ) (2020-03-15T01:10:25Z) - Learning Not to Learn in the Presence of Noisy Labels [104.7655376309784]
ギャンブラーの損失と呼ばれる新しい種類の損失関数は、様々なレベルの汚職にまたがってノイズをラベル付けするのに強い堅牢性をもたらすことを示す。
この損失関数によるトレーニングは、ノイズのあるラベルを持つデータポイントでの学習を"維持"することをモデルに促すことを示す。
論文 参考訳(メタデータ) (2020-02-16T09:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。