論文の概要: Model-agnostic out-of-distribution detection using combined statistical
tests
- arxiv url: http://arxiv.org/abs/2203.01097v1
- Date: Wed, 2 Mar 2022 13:32:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 21:17:34.964980
- Title: Model-agnostic out-of-distribution detection using combined statistical
tests
- Title(参考訳): 複合統計的テストを用いたモデル非依存分布検出
- Authors: Federico Bergamin, Pierre-Alexandre Mattei, Jakob D. Havtorn, Hugo
Senetaire, Hugo Schmutz, Lars Maal{\o}e, S{\o}ren Hauberg, Jes Frellsen
- Abstract要約: 本稿では,学習された生成モデルを用いた分布外検出のための簡易な手法を提案する。
古典的パラメトリックテスト(ラオのスコアテスト)と最近導入された定性テストを組み合わせる。
その単純さと汎用性にもかかわらず、これらの手法はモデル固有のアウト・オブ・ディストリビューション検出アルゴリズムと競合することがある。
- 参考スコア(独自算出の注目度): 15.27980070479021
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present simple methods for out-of-distribution detection using a trained
generative model. These techniques, based on classical statistical tests, are
model-agnostic in the sense that they can be applied to any differentiable
generative model. The idea is to combine a classical parametric test (Rao's
score test) with the recently introduced typicality test. These two test
statistics are both theoretically well-founded and exploit different sources of
information based on the likelihood for the typicality test and its gradient
for the score test. We show that combining them using Fisher's method overall
leads to a more accurate out-of-distribution test. We also discuss the benefits
of casting out-of-distribution detection as a statistical testing problem,
noting in particular that false positive rate control can be valuable for
practical out-of-distribution detection. Despite their simplicity and
generality, these methods can be competitive with model-specific
out-of-distribution detection algorithms without any assumptions on the
out-distribution.
- Abstract(参考訳): 本稿では,学習された生成モデルを用いた分布外検出法を提案する。
これらの手法は古典的な統計テストに基づいており、任意の微分可能生成モデルに適用できるという意味ではモデルに依存しない。
この考え方は古典的パラメトリックテスト(ラオのスコアテスト)と最近導入された定性テストを組み合わせることである。
これら2つのテスト統計は理論的によく確立されており、典型性テストの確率とスコアテストの勾配に基づいて異なる情報源を活用している。
Fisherの手法を総合的に組み合わせることで、より正確なアウト・オブ・ディストリビューションテストが実現できることを示す。
また, 統計的検査問題として, 配当検出をキャストすることの利点についても論じ, 特に, 配当検出に偽陽性率制御が有用であることに留意する。
単純さと汎用性にもかかわらず、これらの手法は、分散を前提にせずに、モデル固有の分散外検出アルゴリズムと競合することができる。
関連論文リスト
- Assessing Model Generalization in Vicinity [34.86022681163714]
本稿では, 分布外テストセットにおける分類モデルの一般化能力について, 基礎的真理ラベルに依存することなく評価する。
そこで本研究では,各試料の正当性評価に,隣り合う試験試料からの応答を取り入れることを提案する。
結果のスコアは、すべてのテストサンプルで平均化され、モデル精度の全体像が示される。
論文 参考訳(メタデータ) (2024-06-13T15:58:37Z) - Out-of-Distribution Detection with a Single Unconditional Diffusion Model [54.15132801131365]
アウト・オブ・ディストリビューション(OOD)検出は、異常サンプルを特定しようとする機械学習において重要なタスクである。
従来、教師なし手法はOOD検出に深い生成モデルを用いていた。
本稿では,単一モデルが多様なタスクに対してOOD検出を行うことができるかどうかを考察する。
論文 参考訳(メタデータ) (2024-05-20T08:54:03Z) - Modelling Sampling Distributions of Test Statistics with Autograd [0.0]
条件付き1次元サンプリング分布をモデル化する手法が,確率密度比法の代替となるかを検討する。
比較的単純で効果的なニューラルネットワークモデルは、様々な方法で予測の不確実性が定量化される。
論文 参考訳(メタデータ) (2024-05-03T21:34:12Z) - Precise Error Rates for Computationally Efficient Testing [75.63895690909241]
本稿では,計算複雑性に着目した単純な対数-単純仮説テストの問題を再考する。
線形スペクトル統計に基づく既存の試験は、I型とII型の誤差率の間の最良のトレードオフ曲線を達成する。
論文 参考訳(メタデータ) (2023-11-01T04:41:16Z) - Shortcomings of Top-Down Randomization-Based Sanity Checks for
Evaluations of Deep Neural Network Explanations [67.40641255908443]
モデルランダム化に基づく正当性チェックの限界を,説明書の評価のために同定する。
トップダウンモデルランダム化は、フォワードパスアクティベーションのスケールを高い確率で保存する。
論文 参考訳(メタデータ) (2022-11-22T18:52:38Z) - Learning to Increase the Power of Conditional Randomization Tests [8.883733362171032]
モデル-X条件ランダム化テストは、条件独立性テストのための一般的なフレームワークである。
本稿では,モデルXテストのパワー向上を目的とした新しいモデル適合方式を提案する。
論文 参考訳(メタデータ) (2022-07-03T12:29:25Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - A Causal Direction Test for Heterogeneous Populations [10.653162005300608]
ほとんどの因果モデルでは、単一の同質な集団を仮定するが、これは多くの応用において成り立たない仮定である。
等質性仮定に違反した場合、そのような仮定に基づいて開発された因果モデルが正しい因果方向を識別できないことを示す。
我々は,$k$-means型クラスタリングアルゴリズムを用いて,一般的な因果方向検定統計量の調整を提案する。
論文 参考訳(メタデータ) (2020-06-08T18:59:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。