論文の概要: Constrained Instance and Class Reweighting for Robust Learning under
Label Noise
- arxiv url: http://arxiv.org/abs/2111.05428v1
- Date: Tue, 9 Nov 2021 21:37:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-11 14:04:23.232720
- Title: Constrained Instance and Class Reweighting for Robust Learning under
Label Noise
- Title(参考訳): ラベル雑音下におけるロバスト学習のための制約付きインスタンスとクラス重み付け
- Authors: Abhishek Kumar, Ehsan Amid
- Abstract要約: 本稿では,個々のインスタンスやクラスラベルに重みを割り当てることを目的として,ラベルノイズに対処する手法を提案する。
本手法は,これらの重み付けに対して単純な閉形式更新をもたらす制約付き最適化問題のクラスを定式化することによって機能する。
提案手法を複数のベンチマークデータセット上で評価し,ラベルノイズの有無でかなりの性能向上を観測した。
- 参考スコア(独自算出の注目度): 20.30785186456126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have shown impressive performance in supervised
learning, enabled by their ability to fit well to the provided training data.
However, their performance is largely dependent on the quality of the training
data and often degrades in the presence of noise. We propose a principled
approach for tackling label noise with the aim of assigning importance weights
to individual instances and class labels. Our method works by formulating a
class of constrained optimization problems that yield simple closed form
updates for these importance weights. The proposed optimization problems are
solved per mini-batch which obviates the need of storing and updating the
weights over the full dataset. Our optimization framework also provides a
theoretical perspective on existing label smoothing heuristics for addressing
label noise (such as label bootstrapping). We evaluate our method on several
benchmark datasets and observe considerable performance gains in the presence
of label noise.
- Abstract(参考訳): 深層ニューラルネットワークは教師付き学習において素晴らしいパフォーマンスを示しており、提供されるトレーニングデータに適合する能力を備えている。
しかし、その性能はトレーニングデータの品質に大きく依存しており、ノイズの存在下では劣化することが多い。
個々のインスタンスとクラスラベルに重要度重みを割り当てることを目的として,ラベルノイズに取り組むための原則的アプローチを提案する。
本手法は,これらの重み付けに対して単純な閉形式更新をもたらす制約付き最適化問題のクラスを定式化する。
提案した最適化問題は、データセット全体の重み付けを保存および更新する必要がなくなるミニバッチ毎に解決される。
我々の最適化フレームワークは、ラベルノイズ(ラベルブートストラッピングなど)に対処するための既存のラベルスムーズなヒューリスティックに関する理論的視点も提供する。
提案手法を複数のベンチマークデータセット上で評価し,ラベルノイズの有無でかなりの性能向上を示す。
関連論文リスト
- ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance [53.73316938815873]
本稿では, ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) という手法を提案する。
ERASEは、プロトタイプの擬似ラベルとプロパゲーションされた識別ラベルを組み合わせて、表現をエラーレジリエンスで更新する。
提案手法は, 広い雑音レベルにおいて, 複数のベースラインをクリアマージンで上回り, 高いスケーラビリティを享受できる。
論文 参考訳(メタデータ) (2023-12-13T17:59:07Z) - Fine tuning Pre trained Models for Robustness Under Noisy Labels [34.68018860186995]
トレーニングデータセットにノイズの多いラベルが存在することは、機械学習モデルのパフォーマンスに大きな影響を及ぼす可能性がある。
我々は、事前学習されたモデルの事前知識を頑健かつ効率的に伝達するTURNと呼ばれる新しいアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-10-24T20:28:59Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Robust Feature Learning Against Noisy Labels [0.2082426271304908]
ミスラベルされたサンプルはモデルの一般化を著しく低下させることができる。
ノイズラベルによる監督の負の影響を最小限に抑えるために、プログレッシブな自己ブートストラッピングが導入される。
実験結果から,本手法は強騒音ラベル下でモデルロバスト性を効果的かつ効果的に向上できることが示唆された。
論文 参考訳(メタデータ) (2023-07-10T02:55:35Z) - Learning with Noisy labels via Self-supervised Adversarial Noisy Masking [33.87292143223425]
対向雑音マスキングと呼ばれる新しいトレーニング手法を提案する。
入力データとラベルを同時に調整し、ノイズの多いサンプルが過度に収まらないようにする。
合成および実世界のノイズデータセットの両方でテストされる。
論文 参考訳(メタデータ) (2023-02-14T03:13:26Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Learning to Detect Noisy Labels Using Model-Based Features [16.681748918518075]
Select-Enhanced Noisy label Training (SENT)を提案する。
SENTは、データ駆動の柔軟性を保ちながら、メタ学習に依存しない。
自己学習とラベルの破損の設定の下で、強力なベースラインよりもパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2022-12-28T10:12:13Z) - Learning from Noisy Labels for Entity-Centric Information Extraction [17.50856935207308]
エンティティ中心の情報抽出のための単純な共正規化フレームワークを提案する。
これらのモデルはタスク固有の損失と共同最適化され、同様の予測を生成するために正規化される。
結局のところ、トレーニングされたモデルのいずれかを推論に利用できます。
論文 参考訳(メタデータ) (2021-04-17T22:49:12Z) - Noise-resistant Deep Metric Learning with Ranking-based Instance
Selection [59.286567680389766]
PRISM(Probabilistic Ranking-based Instance Selection with Memory)と呼ばれるDMLの耐騒音トレーニング技術を提案する。
PRISMは、ニューラルネットワークの以前のバージョンから抽出された画像特徴との平均的類似性を用いて、ミニバッチ内のノイズデータを識別する。
メモリバンクが生み出す高い計算コストを緩和するために,個々のデータポイントをクラスセンタに置き換える高速化手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T03:22:17Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Learning Not to Learn in the Presence of Noisy Labels [104.7655376309784]
ギャンブラーの損失と呼ばれる新しい種類の損失関数は、様々なレベルの汚職にまたがってノイズをラベル付けするのに強い堅牢性をもたらすことを示す。
この損失関数によるトレーニングは、ノイズのあるラベルを持つデータポイントでの学習を"維持"することをモデルに促すことを示す。
論文 参考訳(メタデータ) (2020-02-16T09:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。