論文の概要: CLAF: Contrastive Learning with Augmented Features for Imbalanced
Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2312.09598v2
- Date: Sun, 24 Dec 2023 05:16:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 21:00:16.009007
- Title: CLAF: Contrastive Learning with Augmented Features for Imbalanced
Semi-Supervised Learning
- Title(参考訳): CLAF:アンバランスな半教師付き学習のための機能強化によるコントラスト学習
- Authors: Bowen Tao, Lan Li, Xin-Chun Li, De-Chuan Zhan
- Abstract要約: 半教師付き学習とコントラスト学習は、ポピュラーなアプリケーションでより良いパフォーマンスを達成するために徐々に組み合わせられてきた。
1つの一般的な方法は、擬似ラベルを未ラベルのサンプルに割り当て、擬似ラベルのサンプルから正と負のサンプルを選択して、対照的な学習を適用することである。
比較学習における少数クラスサンプルの不足を軽減するために,CLAF(Contrastive Learning with Augmented Features)を提案する。
- 参考スコア(独自算出の注目度): 40.5117833362268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the advantages of leveraging unlabeled data and learning meaningful
representations, semi-supervised learning and contrastive learning have been
progressively combined to achieve better performances in popular applications
with few labeled data and abundant unlabeled data. One common manner is
assigning pseudo-labels to unlabeled samples and selecting positive and
negative samples from pseudo-labeled samples to apply contrastive learning.
However, the real-world data may be imbalanced, causing pseudo-labels to be
biased toward the majority classes and further undermining the effectiveness of
contrastive learning. To address the challenge, we propose Contrastive Learning
with Augmented Features (CLAF). We design a class-dependent feature
augmentation module to alleviate the scarcity of minority class samples in
contrastive learning. For each pseudo-labeled sample, we select positive and
negative samples from labeled data instead of unlabeled data to compute
contrastive loss. Comprehensive experiments on imbalanced image classification
datasets demonstrate the effectiveness of CLAF in the context of imbalanced
semi-supervised learning.
- Abstract(参考訳): ラベルなしデータと有意義な表現の学習の利点により、半教師あり学習と対照学習は徐々に結合され、ラベルなしデータとラベルなしデータが少ない一般的なアプリケーションでパフォーマンスが向上した。
一般的な方法は、ラベルなしのサンプルに擬似ラベルを割り当て、偽ラベルのサンプルから正のサンプルと負のサンプルを選択して対比学習を適用することである。
しかし、現実世界のデータは不均衡になり、擬似ラベルが多数派クラスに偏り、さらにコントラスト学習の有効性を損なう可能性がある。
この課題に対処するため,我々はCLAF(Contrastive Learning with Augmented Features)を提案する。
対照学習における少数クラスサンプルの不足を軽減するために,クラス依存機能拡張モジュールを設計する。
擬似ラベル付きサンプル毎にラベル付きデータではなくラベル付きデータから正と負のサンプルを選択してコントラスト損失を計算する。
不均衡画像分類データセットに関する総合実験は、不均衡半教師あり学習におけるCLAFの有効性を示す。
関連論文リスト
- Safe Semi-Supervised Contrastive Learning Using In-Distribution Data as Positive Examples [3.4546761246181696]
本稿では,大量のラベルのないデータを完全に活用するための,自己教師付きコントラスト学習手法を提案する。
その結果,自己指導型コントラスト学習は分類精度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-08-03T22:33:13Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Robust Positive-Unlabeled Learning via Noise Negative Sample
Self-correction [48.929877651182885]
正および未ラベルのデータから学ぶことは、文学における正の未ラベル(PU)学習として知られている。
本研究では,人間の学習の性質を動機とした学習戦略を取り入れた,新しい堅牢なPU学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-01T04:34:52Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Incorporating Semi-Supervised and Positive-Unlabeled Learning for
Boosting Full Reference Image Quality Assessment [73.61888777504377]
フル参照(FR)画像品質評価(IQA)は、その知覚的差異をプリズム品質基準で測定することにより、歪み画像の視覚的品質を評価する。
ラベルなしデータは、画像劣化または復元プロセスから容易に収集することができ、ラベルなしのトレーニングデータを利用してFR-IQA性能を高めることを奨励する。
本稿では, 半教師付き, 正の未ラベル学習(PU)を用いて, ラベルなしデータを活用し, オフレーヤの悪影響を軽減することを提案する。
論文 参考訳(メタデータ) (2022-04-19T09:10:06Z) - Uncertainty-aware Pseudo-label Selection for Positive-Unlabeled Learning [10.014356492742074]
本稿では,正の未ラベル学習環境における不均衡データセットとモデル校正の問題に取り組むことを提案する。
マイノリティクラスからのシグナルを増強することにより、擬似ラベル付けはラベル付きデータセットをラベル付きデータセットから新しいサンプルで拡張する。
PUUPLは一連の実験において、高度に不均衡な設定で大幅な性能向上をもたらす。
論文 参考訳(メタデータ) (2022-01-31T12:55:47Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。