論文の概要: BMB: Balanced Memory Bank for Imbalanced Semi-supervised Learning
- arxiv url: http://arxiv.org/abs/2305.12912v1
- Date: Mon, 22 May 2023 10:52:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 16:40:43.834759
- Title: BMB: Balanced Memory Bank for Imbalanced Semi-supervised Learning
- Title(参考訳): BMB:不均衡半教師あり学習のためのバランスドメモリバンク
- Authors: Wujian Peng, Zejia Weng, Hengduo Li and Zuxuan Wu
- Abstract要約: 本稿では,長期認識のための半教師付きフレームワークであるBa balanced Memory Bank (BMB)を提案する。
BMBは、対応する擬似ラベルで歴史的な特徴をキャッシュし、メモリも注意深く維持して、そのデータがクラス再バランスしていることを保証する。
複数のデータセットで実験を行い、BMBが最先端のアプローチをクリアマージンで超越していることを示す。
- 参考スコア(独自算出の注目度): 27.914329280768502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exploring a substantial amount of unlabeled data, semi-supervised learning
(SSL) boosts the recognition performance when only a limited number of labels
are provided. However, traditional methods assume that the data distribution is
class-balanced, which is difficult to achieve in reality due to the long-tailed
nature of real-world data. While the data imbalance problem has been
extensively studied in supervised learning (SL) paradigms, directly
transferring existing approaches to SSL is nontrivial, as prior knowledge about
data distribution remains unknown in SSL. In light of this, we propose Balanced
Memory Bank (BMB), a semi-supervised framework for long-tailed recognition. The
core of BMB is an online-updated memory bank that caches historical features
with their corresponding pseudo labels, and the memory is also carefully
maintained to ensure the data therein are class-rebalanced. Additionally, an
adaptive weighting module is introduced to work jointly with the memory bank so
as to further re-calibrate the biased training process. We conduct experiments
on multiple datasets and demonstrate, among other things, that BMB surpasses
state-of-the-art approaches by clear margins, for example 8.2$\%$ on the 1$\%$
labeled subset of ImageNet127 (with a resolution of 64$\times$64) and 4.3$\%$
on the 50$\%$ labeled subset of ImageNet-LT.
- Abstract(参考訳): ラベルなしデータの相当量を探ると、半教師付き学習(ssl)は、限られた数のラベルしか提供されない場合に認識性能を高める。
しかし、従来の手法では、データ分散はクラスバランスであり、実世界のデータの性質が長いため現実には達成しにくいと仮定している。
データ不均衡問題は、教師あり学習(SL)パラダイムで広く研究されているが、SSLに既存のアプローチを直接移行するのは簡単ではない。
そこで本研究では,ロングテール認識のための半教師付きフレームワークである balanced memory bank (bmb) を提案する。
BMBの中核は、オンライン更新されたメモリバンクで、それらに対応する擬似ラベルで歴史的特徴をキャッシュし、メモリも注意深く維持され、そのデータのクラス再バランスが保証される。
さらに、適応重み付けモジュールを導入してメモリバンクと連携して動作させ、バイアス付きトレーニングプロセスを更に校正する。
例えば、imagenet127のラベル付きサブセット(解像度は64$\times$64)で8.2$$$$%$、imagenet-ltの50$$$$$$$$のサブセットで4.3$$$$$$$である。
関連論文リスト
- (FL)$^2$: Overcoming Few Labels in Federated Semi-Supervised Learning [4.803231218533992]
Federated Learning(FL)は、クライアントのプライバシに敏感なデータを保存しながら、正確なグローバルモデルをトレーニングする分散機械学習フレームワークである。
ほとんどのFLアプローチは、クライアントがラベル付きデータを持っていると仮定するが、実際にはそうではないことが多い。
本稿では、シャープネスを意識した整合性正規化を用いたラベルなしクライアントのための堅牢なトレーニング手法である$(FL)2$を提案する。
論文 参考訳(メタデータ) (2024-10-30T17:15:02Z) - Learning Label Refinement and Threshold Adjustment for Imbalanced Semi-Supervised Learning [6.904448748214652]
半教師付き学習アルゴリズムは、不均衡なトレーニングデータに晒された場合、うまく機能しない。
Validation Data(SEVAL)に基づく擬似ラベル最適化によるセミ教師あり学習について紹介する。
SEVALは、擬似ラベルの精度を改善して特定のタスクに適応し、クラスごとに擬似ラベルの正確性を保証する。
論文 参考訳(メタデータ) (2024-07-07T13:46:22Z) - ProtoCon: Pseudo-label Refinement via Online Clustering and Prototypical
Consistency for Efficient Semi-supervised Learning [60.57998388590556]
ProtoConは信頼性に基づく疑似ラベル作成の新しい手法である。
ProtoConのオンライン版では、データセット全体のラベル履歴を1回のトレーニングサイクルで活用することができる。
最先端のデータセットよりも大幅に向上し、より高速に収束する。
論文 参考訳(メタデータ) (2023-03-22T23:51:54Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - Does Decentralized Learning with Non-IID Unlabeled Data Benefit from
Self Supervision? [51.00034621304361]
自己教師型学習(SSL)のレンズによるラベルなしデータによる分散学習の研究
本研究では,分散学習環境下でのコントラスト学習アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2022-10-20T01:32:41Z) - Towards Realistic Semi-Supervised Learning [73.59557447798134]
オープンワールド環境でSSLに取り組み、未知のクラスと未知のクラスを同時に分類する新しい手法を提案する。
我々のアプローチは、既存の最先端の7つのデータセットよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-07-05T19:04:43Z) - BASIL: Balanced Active Semi-supervised Learning for Class Imbalanced
Datasets [14.739359755029353]
現在の半教師付き学習(SSL)メソッドは、ラベル付きデータセットとラベルなしデータセットの両方で、各クラスで利用可能なデータポイントの数の間のバランスを前提としている。
本研究では,サブモジュール相互情報(SMI)関数をクラスごとに最適化し,アクティブな学習ループにおけるバランスの取れたデータセットを徐々に選択するアルゴリズムであるBASILを提案する。
論文 参考訳(メタデータ) (2022-03-10T21:34:08Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z) - BiSTF: Bilateral-Branch Self-Training Framework for Semi-Supervised
Large-scale Fine-Grained Recognition [28.06659482245647]
半教師付きファイングラインド認識は、データ不均衡、高いクラス間類似性、ドメインミスマッチによる課題である。
本稿では,バイラテラルブランチ・セルフトレーニング・フレームワーク (Bilateral-Branch Self-Training Framework, BiSTF) を提案する。
BiSTFはSemi-iNatデータセット上で既存の最先端SSLよりも優れています。
論文 参考訳(メタデータ) (2021-07-14T15:28:54Z) - Distribution Aligning Refinery of Pseudo-label for Imbalanced
Semi-supervised Learning [126.31716228319902]
Pseudo-label (DARP) アルゴリズムの分散アライメント・リファナリーを開発する。
DARPは最先端のSSLスキームと有効かつ効率的に互換性があることを示す。
論文 参考訳(メタデータ) (2020-07-17T09:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。