論文の概要: Not All Unlabeled Data are Equal: Learning to Weight Data in
Semi-supervised Learning
- arxiv url: http://arxiv.org/abs/2007.01293v2
- Date: Thu, 29 Oct 2020 04:29:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 12:57:24.133922
- Title: Not All Unlabeled Data are Equal: Learning to Weight Data in
Semi-supervised Learning
- Title(参考訳): ラベルのないデータがすべて平等であるとは限らない: 半教師付き学習における重み付け学習
- Authors: Zhongzheng Ren, Raymond A. Yeh, Alexander G. Schwing
- Abstract要約: ラベル付けされていないすべての例に対して、異なるウェイトを使用する方法を示します。
影響関数に基づいたアルゴリズムを用いて重み付けを調整する。
本手法は,半教師付き画像および言語分類タスクにおける最先端手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 135.89676456312247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing semi-supervised learning (SSL) algorithms use a single weight to
balance the loss of labeled and unlabeled examples, i.e., all unlabeled
examples are equally weighted. But not all unlabeled data are equal. In this
paper we study how to use a different weight for every unlabeled example.
Manual tuning of all those weights -- as done in prior work -- is no longer
possible. Instead, we adjust those weights via an algorithm based on the
influence function, a measure of a model's dependency on one training example.
To make the approach efficient, we propose a fast and effective approximation
of the influence function. We demonstrate that this technique outperforms
state-of-the-art methods on semi-supervised image and language classification
tasks.
- Abstract(参考訳): 既存の半教師付き学習(ssl)アルゴリズムは、ラベル付き例とラベルなし例の損失のバランスをとるために単一の重みを用いる。
しかし、ラベルのないデータがすべて等しいわけではない。
本稿では,ラベルのない例ごとに異なる重みをどう使うかを検討する。
以前の作業で行われているように、これらすべての重みのマニュアルチューニングはもはや不可能です。
代わりに、1つのトレーニング例に対するモデルの依存性の測定値である影響関数に基づいてアルゴリズムによって重み付けを調整します。
アプローチを効率的にするために,影響関数の高速かつ効果的な近似法を提案する。
本手法は,半教師付き画像および言語分類タスクにおける最先端手法よりも優れていることを示す。
関連論文リスト
- Boosting Semi-Supervised Learning by bridging high and low-confidence
predictions [4.18804572788063]
Pseudo-labelingは半教師あり学習(SSL)において重要な技術である
ReFixMatchと呼ばれる新しい手法を提案し、これはトレーニング中にラベルなしのデータをすべて活用することを目的としている。
論文 参考訳(メタデータ) (2023-08-15T00:27:18Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Unsupervised Deep Metric Learning via Orthogonality based Probabilistic
Loss [27.955068939695042]
既存の最先端のメトリック学習アプローチでは、メトリクスを学ぶためにクラスラベルが必要である。
クラスラベルを使わずにメトリクスを学習する教師なしアプローチを提案する。
擬似ラベルは、メートル法学習のガイドとなる3つの例を形成するために使用される。
論文 参考訳(メタデータ) (2020-08-22T17:13:33Z) - Don't Wait, Just Weight: Improving Unsupervised Representations by
Learning Goal-Driven Instance Weights [92.16372657233394]
自己教師付き学習技術は、役に立たないデータから有用な表現を学習することで、パフォーマンスを向上させることができる。
ベイジアンのインスタンスの重み付けを学習することで、下流の分類精度を向上させることができることを示す。
本研究では,STL-10 と Visual Decathlon の自己教師型回転予測タスクを用いて,BetaDataWeighter の評価を行った。
論文 参考訳(メタデータ) (2020-06-22T15:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。