論文の概要: Robust Meta-learning with Sampling Noise and Label Noise via
Eigen-Reptile
- arxiv url: http://arxiv.org/abs/2206.01944v1
- Date: Sat, 4 Jun 2022 08:48:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-12 10:26:43.853230
- Title: Robust Meta-learning with Sampling Noise and Label Noise via
Eigen-Reptile
- Title(参考訳): 固有応答によるサンプリングノイズとラベルノイズを用いたロバストメタラーニング
- Authors: Dong Chen, Lingfei Wu, Siliang Tang, Xiao Yun, Bo Long, Yueting Zhuang
- Abstract要約: Meta-learnerは、利用可能なサンプルがわずかしかないため、過度に適合する傾向がある。
ノイズの多いラベルでデータを扱う場合、メタラーナーはラベルノイズに対して非常に敏感になる可能性がある。
本稿では,タスク固有のパラメータの主要な方向でメタパラメータを更新するEigen-Reptile(ER)を提案する。
- 参考スコア(独自算出の注目度): 78.1212767880785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have seen a surge of interest in meta-learning techniques for
tackling the few-shot learning (FSL) problem. However, the meta-learner is
prone to overfitting since there are only a few available samples, which can be
identified as sampling noise on a clean dataset. Moreover, when handling the
data with noisy labels, the meta-learner could be extremely sensitive to label
noise on a corrupted dataset. To address these two challenges, we present
Eigen-Reptile (ER) that updates the meta-parameters with the main direction of
historical task-specific parameters to alleviate sampling and label noise.
Specifically, the main direction is computed in a fast way, where the scale of
the calculated matrix is related to the number of gradient steps instead of the
number of parameters. Furthermore, to obtain a more accurate main direction for
Eigen-Reptile in the presence of many noisy labels, we further propose
Introspective Self-paced Learning (ISPL). We have theoretically and
experimentally demonstrated the soundness and effectiveness of the proposed
Eigen-Reptile and ISPL. Particularly, our experiments on different tasks show
that the proposed method is able to outperform or achieve highly competitive
performance compared with other gradient-based methods with or without noisy
labels. The code and data for the proposed method are provided for research
purposes https://github.com/Anfeather/Eigen-Reptile.
- Abstract(参考訳): 近年,FSL問題に対処するためのメタ学習技術への関心が高まっている。
しかし、Meta-learnerは、利用可能なサンプルがわずかしかないため、過度に適合する傾向にあり、クリーンデータセットのサンプリングノイズとして識別できる。
さらに、ノイズの多いラベルでデータを扱う場合、メタリアナーは破損したデータセットのラベルノイズに非常に敏感になる可能性がある。
これら2つの課題に対処するために,メタパラメータを過去のタスク固有のパラメータの主方向で更新し,サンプリングやラベルノイズを緩和する固有レプティル(er)を提案する。
具体的には、主方向を高速に計算し、計算された行列のスケールはパラメータの数ではなく勾配ステップの数に関係している。
さらに,多くの雑音ラベルの存在下での固有表現のより正確な主方向を得るため,内省的自己ペース学習(ispl)を提案する。
提案したEigen-ReptileとISPLの音質と効果を理論的,実験的に実証した。
特に, 異なる課題に対する実験により, 提案手法は, 雑音ラベルの有無に関わらず, 他の勾配法と比較して, 高い性能を発揮できることがわかった。
提案手法のコードとデータは研究目的のhttps://github.com/anfeather/eigen-reptileに対して提供される。
関連論文リスト
- Robust Learning under Hybrid Noise [24.36707245704713]
本稿では,データリカバリの観点からハイブリッドノイズに対処するため,新たな統合学習フレームワーク"Feature and Label Recovery"(FLR)を提案する。
論文 参考訳(メタデータ) (2024-07-04T16:13:25Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Fine tuning Pre trained Models for Robustness Under Noisy Labels [34.68018860186995]
トレーニングデータセットにノイズの多いラベルが存在することは、機械学習モデルのパフォーマンスに大きな影響を及ぼす可能性がある。
我々は、事前学習されたモデルの事前知識を頑健かつ効率的に伝達するTURNと呼ばれる新しいアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-10-24T20:28:59Z) - Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - Learning from Training Dynamics: Identifying Mislabeled Data Beyond
Manually Designed Features [43.41573458276422]
LSTMネットワークを例として,ノイズ検出を応用した新しい学習ベースソリューションを提案する。
提案手法は、合成ラベル雑音を用いたデータセットを用いて、教師あり方式でノイズ検出器を訓練する。
提案手法は, 各種データセットの誤ラベルサンプルを, さらなる適応を伴わずに, 精度良く検出できることが示唆された。
論文 参考訳(メタデータ) (2022-12-19T09:39:30Z) - Instance-dependent Label Distribution Estimation for Learning with Label Noise [20.479674500893303]
雑音遷移行列(NTM)推定はラベル雑音による学習に有望な手法である。
本稿では、画像分類のためのノイズラベルから学習するためのインスタンス依存ラベル分布推定(ILDE)手法を提案する。
提案手法は, 合成ノイズであっても実雑音であっても, 競合する全ての手法より優れていることを示す。
論文 参考訳(メタデータ) (2022-12-16T10:13:25Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Robust Long-Tailed Learning under Label Noise [50.00837134041317]
本研究では,長期ラベル分布におけるラベルノイズ問題について検討する。
本稿では,長期学習のための雑音検出を実現する頑健なフレームワークAlgoを提案する。
我々のフレームワークは、半教師付き学習アルゴリズムを自然に活用して一般化をさらに改善することができる。
論文 参考訳(メタデータ) (2021-08-26T03:45:00Z) - Meta Transition Adaptation for Robust Deep Learning with Noisy Labels [61.8970957519509]
本研究では,新しいメタ遷移学習戦略を提案する。
具体的には、クリーンなラベル付きメタデータの小さなセットのサウンドガイダンスにより、ノイズ遷移行列と分類器パラメータを相互に改善することができる。
本手法は, 従来技術よりも頑健な性能で, 遷移行列をより正確に抽出することができる。
論文 参考訳(メタデータ) (2020-06-10T07:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。