論文の概要: ProSub: Probabilistic Open-Set Semi-Supervised Learning with Subspace-Based Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2407.11735v1
- Date: Tue, 16 Jul 2024 14:05:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 14:52:24.933012
- Title: ProSub: Probabilistic Open-Set Semi-Supervised Learning with Subspace-Based Out-of-Distribution Detection
- Title(参考訳): ProSub:サブスペースに基づくアウト・オブ・ディストリビューション検出による確率的オープンセット半教師付き学習
- Authors: Erik Wallin, Lennart Svensson, Fredrik Kahl, Lars Hammarstrand,
- Abstract要約: オープンセット半教師付き学習(OSSL)では、未知のクラスを含む可能性のあるラベルなしデータセットを検討する。
データとIDサブスペース間の特徴空間の角度に基づくID/OOD分類のための新しいスコアを提案する。
また、与えられたIDまたはOODデータの条件分布を推定し、IDまたはOODであるデータの確率的予測を可能にする手法を提案する。
- 参考スコア(独自算出の注目度): 12.997644089746954
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In open-set semi-supervised learning (OSSL), we consider unlabeled datasets that may contain unknown classes. Existing OSSL methods often use the softmax confidence for classifying data as in-distribution (ID) or out-of-distribution (OOD). Additionally, many works for OSSL rely on ad-hoc thresholds for ID/OOD classification, without considering the statistics of the problem. We propose a new score for ID/OOD classification based on angles in feature space between data and an ID subspace. Moreover, we propose an approach to estimate the conditional distributions of scores given ID or OOD data, enabling probabilistic predictions of data being ID or OOD. These components are put together in a framework for OSSL, termed \emph{ProSub}, that is experimentally shown to reach SOTA performance on several benchmark problems. Our code is available at https://github.com/walline/prosub.
- Abstract(参考訳): オープンセット半教師付き学習(OSSL)では、未知のクラスを含む可能性のあるラベルなしデータセットを検討する。
既存の OSSL メソッドは、データを非配布(ID)またはアウト・オブ・ディストリビューション(OOD)として分類するために、ソフトマックスの信頼性を使用することが多い。
さらに、OSSLの多くの研究は、問題の統計を考慮せずに、ID/OOD分類のアドホックしきい値に依存している。
データとIDサブスペース間の特徴空間の角度に基づくID/OOD分類のための新しいスコアを提案する。
さらに,得られたIDやOODデータの条件分布を推定し,IDやOODとなるデータの確率的予測を可能にする手法を提案する。
これらのコンポーネントは OSSL のフレームワークである \emph{ProSub} にまとめられ、いくつかのベンチマーク問題において SOTA のパフォーマンスに達することが実験的に示されている。
私たちのコードはhttps://github.com/walline/prosub.orgから入手可能です。
関連論文リスト
- SCOMatch: Alleviating Overtrusting in Open-set Semi-supervised Learning [25.508200663171625]
オープンセット半教師付き学習(OSSL)は、実用的なオープンセット未ラベルデータを使用する。
以前のOSSLメソッドはラベル付きIDデータを過信する傾向に悩まされていた。
我々は,OODサンプルを新たなクラスとして扱い,新たなSSLプロセスを形成する新しいOSSLであるSCOMatchを提案する。
論文 参考訳(メタデータ) (2024-09-26T03:47:34Z) - How Does Unlabeled Data Provably Help Out-of-Distribution Detection? [63.41681272937562]
in-distribution (ID) とout-of-distribution (OOD) の両データの不均一性のため、未ラベルの in-the-wild データは非自明である。
本稿では,理論的保証と実証的有効性の両方を提供する新たな学習フレームワークであるSAL(Separate And Learn)を紹介する。
論文 参考訳(メタデータ) (2024-02-05T20:36:33Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - On the Effectiveness of Out-of-Distribution Data in Self-Supervised
Long-Tail Learning [15.276356824489431]
我々は、長期学習(COLT)のためのOODデータを用いたコントラストを提案する。
我々はSSL長期学習におけるOODサンプルの対直感的有用性を実証的に同定した。
提案手法は,長い尾のデータセット上でのSSLの性能を大きなマージンで大幅に向上させる。
論文 参考訳(メタデータ) (2023-06-08T04:32:10Z) - Prompt-driven efficient Open-set Semi-supervised Learning [52.30303262499391]
オープンセット半教師付き学習(OSSL)は関心を集めており、未ラベルデータにのみOOD(Out-of-distribution)サンプルが組み込まれているというより実践的なシナリオを調査している。
我々はOpenPromptと呼ばれる,プロンプト駆動の効率的なOSSLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T16:25:08Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - Multi-Task Curriculum Framework for Open-Set Semi-Supervised Learning [54.85397562961903]
ラベル付きデータに制限がある場合に、ラベルなしデータを利用して強力なモデルをトレーニングする半教師付き学習(SSL)が提案されている。
我々は、Open-set SSLと呼ばれるより複雑な新しいシナリオに対処する。
提案手法は,OOD試料の効果を除去し,最先端の結果を得る。
論文 参考訳(メタデータ) (2020-07-22T10:33:55Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。