論文の概要: Transfer and Share: Semi-Supervised Learning from Long-Tailed Data
- arxiv url: http://arxiv.org/abs/2205.13358v1
- Date: Thu, 26 May 2022 13:37:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 21:57:50.902147
- Title: Transfer and Share: Semi-Supervised Learning from Long-Tailed Data
- Title(参考訳): 転送と共有: 長期データによる半教師付き学習
- Authors: Tong Wei, Qian-Yu Liu, Jiang-Xin Shi, Wei-Wei Tu, Lan-Zhe Guo
- Abstract要約: 本稿では、TRAS(TRAnsfer and Share)を用いて、長い尾を持つ半教師付きデータを効果的に活用する。
TRASは従来のSSLモデルの不均衡な擬似ラベル分布を変換する。
その後、マイノリティクラスが大きな注目を集めるように、分布をターゲットモデルに転送する。
- 参考スコア(独自算出の注目度): 27.88381366842497
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Long-Tailed Semi-Supervised Learning (LTSSL) aims to learn from
class-imbalanced data where only a few samples are annotated. Existing
solutions typically require substantial cost to solve complex optimization
problems, or class-balanced undersampling which can result in information loss.
In this paper, we present the TRAS (TRAnsfer and Share) to effectively utilize
long-tailed semi-supervised data. TRAS transforms the imbalanced pseudo-label
distribution of a traditional SSL model via a delicate function to enhance the
supervisory signals for minority classes. It then transfers the distribution to
a target model such that the minority class will receive significant attention.
Interestingly, TRAS shows that more balanced pseudo-label distribution can
substantially benefit minority-class training, instead of seeking to generate
accurate pseudo-labels as in previous works. To simplify the approach, TRAS
merges the training of the traditional SSL model and the target model into a
single procedure by sharing the feature extractor, where both classifiers help
improve the representation learning. According to extensive experiments, TRAS
delivers much higher accuracy than state-of-the-art methods in the entire set
of classes as well as minority classes.
- Abstract(参考訳): Long-Tailed Semi-Supervised Learning (LTSSL) は、少数のサンプルに注釈を付けたクラス不均衡データから学習することを目的としている。
既存のソリューションは通常、複雑な最適化問題を解決するためにかなりのコストを必要とする。
本稿では,ロングテールの半教師付きデータを有効に活用するためのtra(transfer and share)を提案する。
TRASは、従来のSSLモデルの不均衡な擬似ラベル分布を繊細な機能を通じて変換し、マイノリティクラスの監視信号を強化する。
その後、マイノリティクラスが大きな注目を集めるように、分布をターゲットモデルに転送する。
興味深いことに、TRASは従来のように正確な擬似ラベルを生成するのではなく、よりバランスのとれた擬似ラベル分布がマイノリティクラスのトレーニングに実質的に恩恵をもたらすことを示した。
アプローチを簡単にするため、TRASは従来のSSLモデルとターゲットモデルのトレーニングを単一のプロシージャにマージし、特徴抽出器を共有することで、両方の分類器が表現学習を改善する。
広範な実験によると、TRASは、クラス全体とマイノリティクラス全体の最先端メソッドよりもはるかに高い精度を提供する。
関連論文リスト
- Towards the Mitigation of Confirmation Bias in Semi-supervised Learning: a Debiased Training Perspective [6.164100243945264]
半教師付き学習(SSL)は、モデルが特定のクラスを不均等に好むという、一般的に確認バイアスを示す。
SSLのデバイアスドトレーニングのための統合フレームワークであるTaMatchを紹介します。
TaMatchは,様々な課題の画像分類タスクにおいて,既存の最先端手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-09-26T21:50:30Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Exploring Vacant Classes in Label-Skewed Federated Learning [113.65301899666645]
クライアント間の局所的なラベル分布の相違を特徴とするラベルスキューは、連合学習において大きな課題となる。
本稿では, ラベルスキュード・フェデレート学習における新しい手法であるFedVLSについて紹介する。
論文 参考訳(メタデータ) (2024-01-04T16:06:31Z) - Progressive Feature Adjustment for Semi-supervised Learning from
Pretrained Models [39.42802115580677]
半教師付き学習(SSL)はラベル付きデータとラベルなしデータの両方を利用して予測モデルを構築することができる。
近年の文献では、事前訓練されたモデルで最先端のSSLを適用しても、トレーニングデータの潜在能力を最大限に発揮できないことが示唆されている。
本稿では,ラベルの誤りに敏感でない特徴抽出器を更新するために,非ラベルデータから擬似ラベルを使用することを提案する。
論文 参考訳(メタデータ) (2023-09-09T01:57:14Z) - Pruning the Unlabeled Data to Improve Semi-Supervised Learning [17.62242617965356]
PruneSSLは、オリジナルのラベルなしデータセットからサンプルを選択的に削除し、分離性を高める技術である。
PruneSSLは学習者の利用可能なトレーニングデータの量を減らすが、様々な競合するSSLアルゴリズムの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-08-27T09:45:41Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - Adaptive Distribution Calibration for Few-Shot Learning with
Hierarchical Optimal Transport [78.9167477093745]
本稿では,新しいサンプルとベースクラス間の適応重み行列を学習し,新しい分布校正法を提案する。
標準ベンチマーク実験の結果,提案したプラグ・アンド・プレイモデルの方が競合する手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-10-09T02:32:57Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z) - Rethinking Re-Sampling in Imbalanced Semi-Supervised Learning [26.069534478556527]
Semi-Supervised Learning (SSL)はラベル付きデータが不足している場合にラベル付きデータを利用する強力な能力を示している。
ほとんどのSSLアルゴリズムは、クラスディストリビューションがトレーニングセットとテストセットの両方でバランスが取れているという仮定の下で動作します。
本研究では,クラス不均衡データに対するSSLの問題について考察する。
論文 参考訳(メタデータ) (2021-06-01T03:58:18Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。