論文の概要: SSB: Simple but Strong Baseline for Boosting Performance of Open-Set
Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2311.10572v1
- Date: Fri, 17 Nov 2023 15:14:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-20 14:17:22.838372
- Title: SSB: Simple but Strong Baseline for Boosting Performance of Open-Set
Semi-Supervised Learning
- Title(参考訳): SSB:オープンセット半教師付き学習の性能向上のためのシンプルだが強力なベースライン
- Authors: Yue Fan, Anna Kukleva, Dengxin Dai, Bernt Schiele
- Abstract要約: 本稿では,挑戦的で現実的なオープンセットSSL設定について検討する。
目標は、inlierを正しく分類し、outlierを検知することである。
信頼度の高い疑似ラベル付きデータを組み込むことで、不整合分類性能を大幅に改善できることが判明した。
- 参考スコア(独自算出の注目度): 106.46648817126984
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semi-supervised learning (SSL) methods effectively leverage unlabeled data to
improve model generalization. However, SSL models often underperform in
open-set scenarios, where unlabeled data contain outliers from novel categories
that do not appear in the labeled set. In this paper, we study the challenging
and realistic open-set SSL setting, where the goal is to both correctly
classify inliers and to detect outliers. Intuitively, the inlier classifier
should be trained on inlier data only. However, we find that inlier
classification performance can be largely improved by incorporating
high-confidence pseudo-labeled data, regardless of whether they are inliers or
outliers. Also, we propose to utilize non-linear transformations to separate
the features used for inlier classification and outlier detection in the
multi-task learning framework, preventing adverse effects between them.
Additionally, we introduce pseudo-negative mining, which further boosts outlier
detection performance. The three ingredients lead to what we call Simple but
Strong Baseline (SSB) for open-set SSL. In experiments, SSB greatly improves
both inlier classification and outlier detection performance, outperforming
existing methods by a large margin. Our code will be released at
https://github.com/YUE-FAN/SSB.
- Abstract(参考訳): 半教師付き学習(ssl)法はラベルなしのデータを有効に活用し、モデルの一般化を改善する。
しかし、SSLモデルは、ラベル付きセットにない新しいカテゴリから外れ値を含むラベル付きデータを含むオープンセットのシナリオでは、しばしばパフォーマンスが劣る。
本稿では,不整点を正しく分類し,外れ値を検出することを目的とした,挑戦的で現実的なオープンセットSSL設定について検討する。
直感的には、インリアー分類器はインリアーデータのみに基づいてトレーニングされるべきである。
しかし,高い信頼度を持つ擬似ラベル付きデータを組み込むことで,インレーシの分類性能を大幅に改善できることがわかった。
また,非線形変換を応用して,マルチタスク学習フレームワークにおける不規則分類と異常検出に使用される特徴を分離し,両者の悪影響を防止することを提案する。
さらに, 偽陰性マイニングを導入し, 異常検出性能をさらに向上させる。
3つの要素は、オープンセットSSLのためのSimple but Strong Baseline(SSB)と呼ばれるものにつながります。
実験では、SSBは不整合分類と外乱検出性能を大幅に改善し、既存の手法よりも大きなマージンで性能を向上する。
私たちのコードはhttps://github.com/YUE-FAN/SSB.comでリリースされます。
関連論文リスト
- IOMatch: Simplifying Open-Set Semi-Supervised Learning with Joint
Inliers and Outliers Utilization [36.102831230805755]
多くの現実世界のアプリケーションでは、ラベル付けされていないデータは必然的に、ラベル付けされたクラスのどれにも属さない、目に見えないクラスの外れ値を含む。
我々は,新しいオープンセットSSLフレームワークであるIOMatchを紹介した。
論文 参考訳(メタデータ) (2023-08-25T04:14:02Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning [69.81438976273866]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - RbA: Segmenting Unknown Regions Rejected by All [1.3381749415517021]
マスク分類におけるオブジェクトクエリは、1対全分類器のように振る舞う傾向があることを示す。
本稿では,RbA と呼ばれる新しい外れ値スコアリング関数を提案する。
実験の結果,マスクの分類により既存の外乱検出法の性能が向上し,提案したRbAで最良の結果が得られた。
論文 参考訳(メタデータ) (2022-11-25T18:50:04Z) - OpenLDN: Learning to Discover Novel Classes for Open-World
Semi-Supervised Learning [110.40285771431687]
半教師付き学習(SSL)は、教師付き学習のアノテーションボトルネックに対処する主要なアプローチの1つである。
最近のSSLメソッドは、ラベルなしデータの大規模なリポジトリを有効活用して、ラベル付きデータの小さなセットに依存しながら、パフォーマンスを向上させることができる。
この研究は、ペアワイズ類似度損失を利用して新しいクラスを発見するOpenLDNを導入している。
論文 参考訳(メタデータ) (2022-07-05T18:51:05Z) - L2B: Learning to Bootstrap Robust Models for Combating Label Noise [52.02335367411447]
本稿では,Learning to Bootstrap (L2B) という,シンプルで効果的な手法を提案する。
モデルは、誤った擬似ラベルの影響を受けずに、自身の予測を使ってブートストラップを行うことができる。
これは、実際の観測されたラベルと生成されたラベル間の重みを動的に調整し、メタラーニングを通じて異なるサンプル間の重みを動的に調整することで実現される。
論文 参考訳(メタデータ) (2022-02-09T05:57:08Z) - Unsupervised Outlier Detection using Memory and Contrastive Learning [53.77693158251706]
特徴空間における外乱検出は,外乱検出から外乱検出までの特徴距離を測定することで行うことができると考えている。
本稿では,メモリモジュールとコントラスト学習モジュールを用いたMCODフレームワークを提案する。
提案したMCODは高い性能を達成し,9つの最先端手法より優れる。
論文 参考訳(メタデータ) (2021-07-27T07:35:42Z) - Rethinking Re-Sampling in Imbalanced Semi-Supervised Learning [26.069534478556527]
Semi-Supervised Learning (SSL)はラベル付きデータが不足している場合にラベル付きデータを利用する強力な能力を示している。
ほとんどのSSLアルゴリズムは、クラスディストリビューションがトレーニングセットとテストセットの両方でバランスが取れているという仮定の下で動作します。
本研究では,クラス不均衡データに対するSSLの問題について考察する。
論文 参考訳(メタデータ) (2021-06-01T03:58:18Z) - OpenMatch: Open-set Consistency Regularization for Semi-supervised
Learning with Outliers [71.08167292329028]
我々はOpenMatchと呼ばれる新しいオープンセットセミスーパーバイザードラーニング(OSSL)アプローチを提案する。
OpenMatchは、1-vs-all(OVA)分類器に基づいた新規検出とFixMatchを統合する。
3つのデータセットで最先端のパフォーマンスを実現し、CIFAR10の未ラベルデータで見えないアウトリーチを検出する上で、完全な教師付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-05-28T23:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。