論文の概要: Robust Semi-supervised Learning by Wisely Leveraging Open-set Data
- arxiv url: http://arxiv.org/abs/2405.06979v1
- Date: Sat, 11 May 2024 10:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 19:07:50.073856
- Title: Robust Semi-supervised Learning by Wisely Leveraging Open-set Data
- Title(参考訳): オープンセットデータを微妙に活用したロバスト半教師付き学習
- Authors: Yang Yang, Nan Jiang, Yi Xu, De-Chuan Zhan,
- Abstract要約: Open-set Semi-supervised Learning (OSSL)は、ラベル付けされていないデータはラベル付けされていないクラスから来る可能性がある、という現実的な設定を持っている。
Wese Open-set Semi-supervised Learning (WiseOpen) は、モデルのトレーニングにオープンセットデータを選択的に活用する汎用OSSLフレームワークである。
- 参考スコア(独自算出の注目度): 48.67897991121204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Open-set Semi-supervised Learning (OSSL) holds a realistic setting that unlabeled data may come from classes unseen in the labeled set, i.e., out-of-distribution (OOD) data, which could cause performance degradation in conventional SSL models. To handle this issue, except for the traditional in-distribution (ID) classifier, some existing OSSL approaches employ an extra OOD detection module to avoid the potential negative impact of the OOD data. Nevertheless, these approaches typically employ the entire set of open-set data during their training process, which may contain data unfriendly to the OSSL task that can negatively influence the model performance. This inspires us to develop a robust open-set data selection strategy for OSSL. Through a theoretical understanding from the perspective of learning theory, we propose Wise Open-set Semi-supervised Learning (WiseOpen), a generic OSSL framework that selectively leverages the open-set data for training the model. By applying a gradient-variance-based selection mechanism, WiseOpen exploits a friendly subset instead of the whole open-set dataset to enhance the model's capability of ID classification. Moreover, to reduce the computational expense, we also propose two practical variants of WiseOpen by adopting low-frequency update and loss-based selection respectively. Extensive experiments demonstrate the effectiveness of WiseOpen in comparison with the state-of-the-art.
- Abstract(参考訳): Open-set Semi-supervised Learning (OSSL) は、ラベル付けされていないデータはラベル付けされていないクラス、すなわちOOD(out-of-distribution)データから来る可能性があるという現実的な設定を持ち、従来のSSLモデルの性能劣化を引き起こす可能性がある。
この問題を解決するため、従来のID分類器を除いて、既存のOSSLアプローチでは、OODデータの潜在的な負の影響を避けるために、追加のOOD検出モジュールを使用している。
それにもかかわらず、これらのアプローチはトレーニングプロセス中に一般的にオープンセットデータの集合全体を使用し、モデルパフォーマンスに悪影響を及ぼす可能性のあるOSSLタスクに親しみのないデータを含む可能性がある。
このことは、OSSLの堅牢なオープンセットデータ選択戦略を開発するきっかけになります。
学習理論の観点からの理論的理解を通じて,モデルの学習にオープンセットデータを選択的に活用する汎用的なOSSLフレームワークであるWise Open-set Semi-supervised Learning (WiseOpen)を提案する。
勾配分散に基づく選択機構を適用することで、WiseOpenは、オープンセットデータセット全体ではなく、フレンドリなサブセットを利用して、モデルのID分類能力を向上する。
また,その計算コストを削減するために,低周波更新と損失ベース選択をそれぞれ採用することにより,WiseOpenの実用的2つのバリエーションを提案する。
大規模な実験は、最先端技術と比較してWiseOpenの有効性を実証している。
関連論文リスト
- SCOMatch: Alleviating Overtrusting in Open-set Semi-supervised Learning [25.508200663171625]
オープンセット半教師付き学習(OSSL)は、実用的なオープンセット未ラベルデータを使用する。
以前のOSSLメソッドはラベル付きIDデータを過信する傾向に悩まされていた。
我々は,OODサンプルを新たなクラスとして扱い,新たなSSLプロセスを形成する新しいOSSLであるSCOMatchを提案する。
論文 参考訳(メタデータ) (2024-09-26T03:47:34Z) - SSB: Simple but Strong Baseline for Boosting Performance of Open-Set
Semi-Supervised Learning [106.46648817126984]
本稿では,挑戦的で現実的なオープンセットSSL設定について検討する。
目標は、inlierを正しく分類し、outlierを検知することである。
信頼度の高い疑似ラベル付きデータを組み込むことで、不整合分類性能を大幅に改善できることが判明した。
論文 参考訳(メタデータ) (2023-11-17T15:14:40Z) - Progressive Feature Adjustment for Semi-supervised Learning from
Pretrained Models [39.42802115580677]
半教師付き学習(SSL)はラベル付きデータとラベルなしデータの両方を利用して予測モデルを構築することができる。
近年の文献では、事前訓練されたモデルで最先端のSSLを適用しても、トレーニングデータの潜在能力を最大限に発揮できないことが示唆されている。
本稿では,ラベルの誤りに敏感でない特徴抽出器を更新するために,非ラベルデータから擬似ラベルを使用することを提案する。
論文 参考訳(メタデータ) (2023-09-09T01:57:14Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning [69.81438976273866]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - Improving Open-Set Semi-Supervised Learning with Self-Supervision [13.944469874692459]
オープンセット半教師あり学習(OSSL)は、半教師あり学習における実践的なシナリオを具現化する。
我々は,自己スーパービジョンを通じて,ラベルのないすべてのデータから学習を容易にするOSSLフレームワークを提案する。
提案手法は, 評価されたベンチマーク問題の多くに対して, 最先端の結果をもたらす。
論文 参考訳(メタデータ) (2023-01-24T16:46:37Z) - Prompt-driven efficient Open-set Semi-supervised Learning [52.30303262499391]
オープンセット半教師付き学習(OSSL)は関心を集めており、未ラベルデータにのみOOD(Out-of-distribution)サンプルが組み込まれているというより実践的なシナリオを調査している。
我々はOpenPromptと呼ばれる,プロンプト駆動の効率的なOSSLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T16:25:08Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - OpenMatch: Open-set Consistency Regularization for Semi-supervised
Learning with Outliers [71.08167292329028]
我々はOpenMatchと呼ばれる新しいオープンセットセミスーパーバイザードラーニング(OSSL)アプローチを提案する。
OpenMatchは、1-vs-all(OVA)分類器に基づいた新規検出とFixMatchを統合する。
3つのデータセットで最先端のパフォーマンスを実現し、CIFAR10の未ラベルデータで見えないアウトリーチを検出する上で、完全な教師付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-28T23:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。