論文の概要: MetaInfoNet: Learning Task-Guided Information for Sample Reweighting
- arxiv url: http://arxiv.org/abs/2012.05273v1
- Date: Wed, 9 Dec 2020 19:21:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 02:11:45.344161
- Title: MetaInfoNet: Learning Task-Guided Information for Sample Reweighting
- Title(参考訳): MetaInfoNet: サンプル再重み付けのためのタスクガイド情報学習
- Authors: Hongxin Wei, Lei Feng, Rundong Wang, Bo An
- Abstract要約: ディープニューラルネットワークは、ラベルノイズやクラス不均衡を伴うバイアストレーニングデータに容易に適合することが示されています。
本稿では,メタ重み付けネットワークの入力として有効な表現を自動的に学習するメタ情報ネットを提案する。
- 参考スコア(独自算出の注目度): 33.879517179662066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have been shown to easily overfit to biased training
data with label noise or class imbalance. Meta-learning algorithms are commonly
designed to alleviate this issue in the form of sample reweighting, by learning
a meta weighting network that takes training losses as inputs to generate
sample weights. In this paper, we advocate that choosing proper inputs for the
meta weighting network is crucial for desired sample weights in a specific
task, while training loss is not always the correct answer. In view of this, we
propose a novel meta-learning algorithm, MetaInfoNet, which automatically
learns effective representations as inputs for the meta weighting network by
emphasizing task-related information with an information bottleneck strategy.
Extensive experimental results on benchmark datasets with label noise or class
imbalance validate that MetaInfoNet is superior to many state-of-the-art
methods.
- Abstract(参考訳): ディープニューラルネットワークは、ラベルノイズやクラス不均衡を伴うバイアス付きトレーニングデータに容易に適合することが示されている。
メタ学習アルゴリズムは、サンプル重み付けの形でこの問題を緩和するために、トレーニング損失を入力として受け取り、サンプル重み付けを生成するメタ重み付けネットワークを学習することによって、一般的に設計されている。
本稿では,メタ重み付けネットワークの適切な入力を選択することが,特定のタスクにおいて望ましいサンプル重み付けに不可欠である一方で,トレーニング損失が必ずしも正しい答えではないことを主張する。
そこで本研究では,タスク関連情報を情報ボトルネック戦略で強調することにより,メタ重み付けネットワークの入力として効果的な表現を自動的に学習するメタ情報ネットを提案する。
ラベルノイズやクラス不均衡を伴うベンチマークデータセットの広範な実験の結果は、metainfonetが多くの最先端メソッドよりも優れていることを検証している。
関連論文リスト
- CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Delving into Sample Loss Curve to Embrace Noisy and Imbalanced Data [17.7825114228313]
破損したラベルとクラス不均衡は、実際に収集されたトレーニングデータでよく見られる。
既存のアプローチは、サンプルの再重み付け戦略を採用することで、これらの問題を緩和します。
しかし、ラベルが破損したサンプルと、訓練データに一般的に共存する尾のクラスは偏りがあった。
論文 参考訳(メタデータ) (2021-12-30T09:20:07Z) - Learning to Rectify for Robust Learning with Noisy Labels [25.149277009932423]
分類ネットワークのトレーニング手順を適応的に修正するためのワープ確率推論(WarPI)を提案する。
雑音ラベルによる頑健な学習の4つのベンチマークでWarPIを評価し, 異種雑音下での新たな最先端の学習を実現する。
論文 参考訳(メタデータ) (2021-11-08T02:25:50Z) - When Deep Learners Change Their Mind: Learning Dynamics for Active
Learning [32.792098711779424]
本稿では,情報量に基づく能動的学習手法を提案する。
我々の測度はニューラルネットワークの学習力学から導かれる。
ラベル分散はネットワークの不確実性の予測因子として有望であることを示す。
論文 参考訳(メタデータ) (2021-07-30T15:30:17Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - Mixed-Privacy Forgetting in Deep Networks [114.3840147070712]
大規模画像分類タスクにおいてトレーニングされたネットワークの重みからトレーニングサンプルのサブセットの影響を除去できることを示す。
そこで本研究では,混合プライバシー設定における「忘れ」という新しい概念を導入する。
提案手法は,モデル精度のトレードオフを伴わずに忘れることができることを示す。
論文 参考訳(メタデータ) (2020-12-24T19:34:56Z) - Improving Generalization in Meta-learning via Task Augmentation [69.83677015207527]
本稿ではMetaMixとChannel Shuffleの2つのタスク拡張手法を提案する。
MetaMixとChannel Shuffleはどちらも、多くのデータセットにまたがる大きなマージンによって、最先端の結果を上回っている。
論文 参考訳(メタデータ) (2020-07-26T01:50:42Z) - Adaptive Task Sampling for Meta-Learning [79.61146834134459]
数ショットの分類のためのメタラーニングの鍵となるアイデアは、テスト時に直面した数ショットの状況を模倣することである。
一般化性能を向上させるための適応型タスクサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T03:15:53Z) - Few Is Enough: Task-Augmented Active Meta-Learning for Brain Cell
Classification [8.998976678920236]
本稿では,Deep Neural Networks を新しいタスクに効率的に適応する tAsk-auGmented actIve meta-LEarning (AGILE) 手法を提案する。
AGILEはメタ学習アルゴリズムと,初期適応モデルを生成するための新しいタスク拡張手法を組み合わせる。
提案するタスク強化メタラーニングフレームワークは,1段階の段階を経て,新たな細胞タイプを分類することができることを示す。
論文 参考訳(メタデータ) (2020-07-09T18:03:12Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。