論文の概要: Detecting Out-of-Distribution Samples via Conditional Distribution
Entropy with Optimal Transport
- arxiv url: http://arxiv.org/abs/2401.11726v1
- Date: Mon, 22 Jan 2024 07:07:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 14:59:04.937405
- Title: Detecting Out-of-Distribution Samples via Conditional Distribution
Entropy with Optimal Transport
- Title(参考訳): 最適輸送を伴う条件付分布エントロピーによる分布外サンプルの検出
- Authors: Chuanwen Feng, Wenlong Chen, Ao Ke, Yilong Ren, Xike Xie, S.Kevin Zhou
- Abstract要約: トレーニングサンプルとテストインプットの両方から幾何情報を含む経験的確率分布は,OOD検出に極めて有用である。
最適輸送の枠組みの中では,OODサンプルであるテスト入力の不確かさを定量化するため,エントロピー(enmphconditional distribution entropy)と呼ばれる新しいスコア関数を提案する。
- 参考スコア(独自算出の注目度): 20.421338676377587
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When deploying a trained machine learning model in the real world, it is
inevitable to receive inputs from out-of-distribution (OOD) sources. For
instance, in continual learning settings, it is common to encounter OOD samples
due to the non-stationarity of a domain. More generally, when we have access to
a set of test inputs, the existing rich line of OOD detection solutions,
especially the recent promise of distance-based methods, falls short in
effectively utilizing the distribution information from training samples and
test inputs. In this paper, we argue that empirical probability distributions
that incorporate geometric information from both training samples and test
inputs can be highly beneficial for OOD detection in the presence of test
inputs available. To address this, we propose to model OOD detection as a
discrete optimal transport problem. Within the framework of optimal transport,
we propose a novel score function known as the \emph{conditional distribution
entropy} to quantify the uncertainty of a test input being an OOD sample. Our
proposal inherits the merits of certain distance-based methods while
eliminating the reliance on distribution assumptions, a-prior knowledge, and
specific training mechanisms. Extensive experiments conducted on benchmark
datasets demonstrate that our method outperforms its competitors in OOD
detection.
- Abstract(参考訳): トレーニングされた機械学習モデルを現実世界にデプロイする場合、アウト・オブ・ディストリビューション(OOD)ソースから入力を受け取ることは避けられない。
例えば、連続的な学習環境では、ドメインの非定常性のためにOODサンプルに遭遇することが一般的である。
より一般的に、一連のテストインプットにアクセスすると、既存のOOD検出ソリューションのリッチライン、特に最近の距離ベース手法の約束は、トレーニングサンプルやテストインプットからの分布情報を有効に活用するのに不足する。
本稿では,実験用サンプルと試験用インプットの両方から幾何情報を含む経験的確率分布は,試験用インプットが存在する場合のOOD検出に極めて有用である,と論じる。
そこで我々は,ood検出を離散的最適輸送問題としてモデル化する。
最適輸送の枠組みの中では,OODサンプルであるテスト入力の不確かさを定量化するために,'emph{conditional distribution entropy} と呼ばれる新しいスコア関数を提案する。
提案手法は, 分布仮定, 事前知識, 特定の訓練機構に依存することなく, 一定の距離に基づく手法の利点を継承する。
ベンチマークデータセットを用いた大規模な実験により,OOD検出において,本手法が競合より優れていることが示された。
関連論文リスト
- EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Out-of-distribution Object Detection through Bayesian Uncertainty
Estimation [10.985423935142832]
OOD検出のための新しい,直感的で,スケーラブルなオブジェクト検出手法を提案する。
提案手法は,提案したガウス分布からの重みパラメータサンプリングにより,IDデータとOODデータを識別することができる。
BDD100kおよびVOCデータセットでトレーニングした場合,FPR95スコアを最大8.19%削減し,AUROCスコアを最大13.94%向上させることで,ベイズ対象検出器のOOD識別性能が良好であることを実証した。
論文 参考訳(メタデータ) (2023-10-29T19:10:52Z) - Expecting The Unexpected: Towards Broad Out-Of-Distribution Detection [9.656342063882555]
5種類の分布変化について検討し,OOD検出手法の性能評価を行った。
その結果,これらの手法は未知のクラスの検出に優れるが,他のタイプの分散シフトに遭遇した場合,その性能は不整合であることがわかった。
我々は、より一貫性があり包括的なOOD検出ソリューションを提供するアンサンブルアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-22T14:52:44Z) - Pseudo-OOD training for robust language models [78.15712542481859]
OOD検出は、あらゆる産業規模のアプリケーションに対する信頼性の高い機械学習モデルの鍵となるコンポーネントである。
In-distribution(IND)データを用いて擬似OODサンプルを生成するPOORE-POORE-POSthoc pseudo-Ood Regularizationを提案する。
我々は3つの現実世界の対話システムに関する枠組みを広く評価し、OOD検出における新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2022-10-17T14:32:02Z) - Breaking Down Out-of-Distribution Detection: Many Methods Based on OOD
Training Data Estimate a Combination of the Same Core Quantities [104.02531442035483]
本研究の目的は,OOD検出手法の暗黙的なスコアリング機能を識別すると同時に,共通の目的を認識することである。
内分布と外分布の2値差はOOD検出問題のいくつかの異なる定式化と等価であることを示す。
また, 外乱露光で使用される信頼損失は, 理論上最適のスコアリング関数と非自明な方法で異なる暗黙的なスコアリング関数を持つことを示した。
論文 参考訳(メタデータ) (2022-06-20T16:32:49Z) - WOOD: Wasserstein-based Out-of-Distribution Detection [6.163329453024915]
ディープ・ニューラル・ネットワークに基づく分類器のトレーニングデータは、通常同じ分布からサンプリングされる。
トレーニングサンプルから遠く離れた分布からテストサンプルの一部を引き出すと、トレーニングされたニューラルネットワークはこれらのOODサンプルに対して高い信頼性の予測を行う傾向にある。
本稿では,これらの課題を克服するため,Wasserstein を用いたアウト・オブ・ディストリビューション検出(WOOD)手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:35:15Z) - Statistical Testing for Efficient Out of Distribution Detection in Deep
Neural Networks [26.0303701309125]
本稿では,Deep Neural Networks の Out Of Distribution (OOD) 検出問題を統計的仮説テスト問題として考察する。
このフレームワークに基づいて、低階統計に基づいた新しいOOD手順を提案します。
本手法は,ネットワークパラメータの再トレーニングを行わずに,oodベンチマークの精度が向上した。
論文 参考訳(メタデータ) (2021-02-25T16:14:47Z) - Label Smoothed Embedding Hypothesis for Out-of-Distribution Detection [72.35532598131176]
我々は,$k$-NN 密度推定値を用いて OOD サンプルを検出する教師なし手法を提案する。
emphLabel Smoothed Embedding hypothesis と呼ばれるラベル平滑化に関する最近の知見を活用する。
提案手法は,多くのOODベースラインを上回り,新しい有限サンプル高確率統計結果を提供することを示す。
論文 参考訳(メタデータ) (2021-02-09T21:04:44Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。