論文の概要: Predictive Sample Assignment for Semantically Coherent Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2512.12906v1
- Date: Mon, 15 Dec 2025 01:18:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.494544
- Title: Predictive Sample Assignment for Semantically Coherent Out-of-Distribution Detection
- Title(参考訳): セマンティック・コヒーレント・アウト・オブ・ディストリビューション検出のための予測サンプルアサイン
- Authors: Zhimao Peng, Enguang Wang, Xialei Liu, Ming-Ming Cheng,
- Abstract要約: セマンティック・コヒーレント・アウト・オブ・ディストリビューション検出(SCOOD)は、最近提案された現実的なOOD検出設定である。
予測サンプル割当て(PSA)に基づく簡潔SCOODフレームワークを提案する。
我々の手法は最先端の手法よりも大きなマージンで優れている。
- 参考スコア(独自算出の注目度): 62.1052001316508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantically coherent out-of-distribution detection (SCOOD) is a recently proposed realistic OOD detection setting: given labeled in-distribution (ID) data and mixed in-distribution and out-of-distribution unlabeled data as the training data, SCOOD aims to enable the trained model to accurately identify OOD samples in the testing data. Current SCOOD methods mainly adopt various clustering-based in-distribution sample filtering (IDF) strategies to select clean ID samples from unlabeled data, and take the remaining samples as auxiliary OOD data, which inevitably introduces a large number of noisy samples in training. To address the above issue, we propose a concise SCOOD framework based on predictive sample assignment (PSA). PSA includes a dual-threshold ternary sample assignment strategy based on the predictive energy score that can significantly improve the purity of the selected ID and OOD sample sets by assigning unconfident unlabeled data to an additional discard sample set, and a concept contrastive representation learning loss to further expand the distance between ID and OOD samples in the representation space to assist ID/OOD discrimination. In addition, we also introduce a retraining strategy to help the model fully fit the selected auxiliary ID/OOD samples. Experiments on two standard SCOOD benchmarks demonstrate that our approach outperforms the state-of-the-art methods by a significant margin.
- Abstract(参考訳): セマンティック・コヒーレント・アウト・オブ・ディストリビューション検出(SCOOD)は、最近提案されたリアルなOOD検出設定である。 ラベル付きイン・ディストリビューション(ID)データと、トレーニングデータとしてイン・ディストリビューションとアウト・オブ・ディストリビューション・アン・ラベルデータの混合が与えられたSCOODは、トレーニングされたモデルがテストデータ中のOODサンプルを正確に識別できるようにすることを目的としている。
現在のSCOOD法は、主にクラスタリングに基づくin-distriion sample filtering (IDF) 戦略を採用し、ラベルのないデータからクリーンなIDサンプルを選択し、残りのサンプルを補助的なOODデータとして取り込む。
上記の課題に対処するために,予測サンプル割当て(PSA)に基づく簡潔なSCOODフレームワークを提案する。
PSAは、未確認の未ラベルデータを追加の廃棄サンプルセットに割り当てることにより、選択されたIDおよびOODサンプルセットの純度を著しく向上させることができる予測エネルギースコアに基づく二重閾値3次サンプル割り当て戦略と、表現空間におけるIDとOODサンプル間の距離をさらに拡大してID/OOD識別を支援するコンセプトコントラスト表現学習損失とを含む。
また,モデルが選択した補助的なID/OODサンプルを完全に適合させるためのトレーニング戦略も導入する。
2つの標準SCOODベンチマークの実験により、我々の手法は最先端の手法よりも大きなマージンで優れていることが示された。
関連論文リスト
- ID-like Prompt Learning for Few-Shot Out-of-Distribution Detection [47.16254775587534]
本稿では,CLIP citeDBLP:conf/icml/RadfordKHRGASAM21を用いて,IDライクな外れ値を検出する新しいOOD検出フレームワークを提案する。
強力なCLIPから恩恵を受けるため、モデルのプロンプトを学習するためには、少数のIDサンプルしか必要ありません。
本手法は,様々な実世界の画像データセットにおいて,より優れた数ショット学習性能を実現する。
論文 参考訳(メタデータ) (2023-11-26T09:06:40Z) - Distilling the Unknown to Unveil Certainty [66.29929319664167]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)データから逸脱するテストサンプルを識別し、ネットワークの堅牢性と信頼性を確保するために重要である。
本稿では,ネットワークからOOD感受性情報を抽出し,IDとOODサンプルを識別可能なバイナリ分類器を開発するための,OOD知識蒸留のためのフレキシブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-14T08:05:02Z) - Pseudo Outlier Exposure for Out-of-Distribution Detection using
Pretrained Transformers [3.8839179829686126]
拒否ネットワークは、テストOODサンプルを検出するために、IDと多様な外れ値サンプルで訓練することができる。
本稿では,Pseudo Outlier Exposure (POE) と呼ばれる手法を提案する。
本手法は外部OODデータを一切必要とせず,既製のトランスフォーマーで容易に実装できる。
論文 参考訳(メタデータ) (2023-07-18T17:29:23Z) - Supervision Adaptation Balancing In-distribution Generalization and
Out-of-distribution Detection [36.66825830101456]
In-distribution (ID) と Out-of-distribution (OOD) のサンプルは、ディープニューラルネットワークにおけるtextitdistributionalな脆弱性を引き起こす可能性がある。
我々は,OODサンプルに対する適応的な監視情報を生成するために,新しいテクスツパービジョン適応手法を導入し,IDサンプルとの互換性を高めた。
論文 参考訳(メタデータ) (2022-06-19T11:16:44Z) - Understanding, Detecting, and Separating Out-of-Distribution Samples and
Adversarial Samples in Text Classification [80.81532239566992]
本稿では,2種類の異常 (OOD と Adv のサンプル) と,3つの側面の内分布 (ID) を比較した。
OODサンプルは第1層から始まる収差を露呈するが,Advサンプルの異常はモデル深層まで出現しない。
隠れ表現と出力確率を用いて,ID,OOD,Advのサンプルを分離する簡単な手法を提案する。
論文 参考訳(メタデータ) (2022-04-09T12:11:59Z) - WOOD: Wasserstein-based Out-of-Distribution Detection [6.163329453024915]
ディープ・ニューラル・ネットワークに基づく分類器のトレーニングデータは、通常同じ分布からサンプリングされる。
トレーニングサンプルから遠く離れた分布からテストサンプルの一部を引き出すと、トレーニングされたニューラルネットワークはこれらのOODサンプルに対して高い信頼性の予測を行う傾向にある。
本稿では,これらの課題を克服するため,Wasserstein を用いたアウト・オブ・ディストリビューション検出(WOOD)手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:35:15Z) - Multi-Task Curriculum Framework for Open-Set Semi-Supervised Learning [54.85397562961903]
ラベル付きデータに制限がある場合に、ラベルなしデータを利用して強力なモデルをトレーニングする半教師付き学習(SSL)が提案されている。
我々は、Open-set SSLと呼ばれるより複雑な新しいシナリオに対処する。
提案手法は,OOD試料の効果を除去し,最先端の結果を得る。
論文 参考訳(メタデータ) (2020-07-22T10:33:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。