論文の概要: Diversify and Conquer: Open-set Disagreement for Robust Semi-supervised Learning with Outliers
- arxiv url: http://arxiv.org/abs/2505.24443v1
- Date: Fri, 30 May 2025 10:24:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.903991
- Title: Diversify and Conquer: Open-set Disagreement for Robust Semi-supervised Learning with Outliers
- Title(参考訳): 多様性と問合せ:アウトリアを用いたロバストな半教師あり学習のためのオープン・セット・ディスアグリメント
- Authors: Heejo Kong, Sung-Jin Kim, Gunho Jung, Seong-Whan Lee,
- Abstract要約: ラベル付けされていないデータは、しばしば未知のクラスデータ、すなわち外れ値を含む。
SSLの堅牢性を高めるための新しいフレームワークであるDiversify and Conquer(DAC)を提案する。
私たちの重要な貢献は、単一のトレーニングプロセスを通じて、異なるバイアスのかかったモデルのコレクションを構築することです。
- 参考スコア(独自算出の注目度): 27.080247169267288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional semi-supervised learning (SSL) ideally assumes that labeled and unlabeled data share an identical class distribution, however in practice, this assumption is easily violated, as unlabeled data often includes unknown class data, i.e., outliers. The outliers are treated as noise, considerably degrading the performance of SSL models. To address this drawback, we propose a novel framework, Diversify and Conquer (DAC), to enhance SSL robustness in the context of open-set semi-supervised learning. In particular, we note that existing open-set SSL methods rely on prediction discrepancies between inliers and outliers from a single model trained on labeled data. This approach can be easily failed when the labeled data is insufficient, leading to performance degradation that is worse than naive SSL that do not account for outliers. In contrast, our approach exploits prediction disagreements among multiple models that are differently biased towards the unlabeled distribution. By leveraging the discrepancies arising from training on unlabeled data, our method enables robust outlier detection even when the labeled data is underspecified. Our key contribution is constructing a collection of differently biased models through a single training process. By encouraging divergent heads to be differently biased towards outliers while making consistent predictions for inliers, we exploit the disagreement among these heads as a measure to identify unknown concepts. Our code is available at https://github.com/heejokong/DivCon.
- Abstract(参考訳): 従来の半教師付き学習(SSL)では、ラベル付きデータとラベルなしデータは同一のクラス分布を共有することを理想的に仮定しているが、実際には、ラベルなしデータは未知のクラスデータ、すなわち外れ値を含むため、この仮定は容易に違反される。
外れ値はノイズとして扱われ、SSLモデルの性能は大幅に低下する。
この欠点に対処するため,オープンセット半教師付き学習におけるSSLの堅牢性を高めるために,新たなフレームワークであるDiversify and Conquer(DAC)を提案する。
特に、既存のオープンセットSSLメソッドは、ラベル付きデータに基づいてトレーニングされた単一のモデルから、インレーヤとアウトレーヤの差分予測に依存することに留意する。
ラベル付きデータが不十分な場合には、このアプローチは簡単に失敗する可能性がある。
対照的に、本手法はラベルのない分布に対して異なる偏りを持つ複数のモデル間の予測不一致を悪用する。
ラベル付きデータのトレーニングから生じる不一致を利用して,ラベル付きデータが未特定である場合でも,ロバストなアウトラヤ検出が可能となる。
私たちの重要な貢献は、単一のトレーニングプロセスを通じて、異なるバイアスのかかったモデルのコレクションを構築することです。
不整合予測を行いながら、不整合性に対して異なる偏りを持つように促すことにより、未知の概念を識別する手段として、これらの頭部間の不整合を活用できる。
私たちのコードはhttps://github.com/heejokong/DivConで利用可能です。
関連論文リスト
- SSB: Simple but Strong Baseline for Boosting Performance of Open-Set
Semi-Supervised Learning [106.46648817126984]
本稿では,挑戦的で現実的なオープンセットSSL設定について検討する。
目標は、inlierを正しく分類し、outlierを検知することである。
信頼度の高い疑似ラベル付きデータを組み込むことで、不整合分類性能を大幅に改善できることが判明した。
論文 参考訳(メタデータ) (2023-11-17T15:14:40Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning [69.81438976273866]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - OpenMatch: Open-set Consistency Regularization for Semi-supervised
Learning with Outliers [71.08167292329028]
我々はOpenMatchと呼ばれる新しいオープンセットセミスーパーバイザードラーニング(OSSL)アプローチを提案する。
OpenMatchは、1-vs-all(OVA)分類器に基づいた新規検出とFixMatchを統合する。
3つのデータセットで最先端のパフォーマンスを実現し、CIFAR10の未ラベルデータで見えないアウトリーチを検出する上で、完全な教師付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-28T23:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。