論文の概要: Composite Goodness-of-fit Tests with Kernels
- arxiv url: http://arxiv.org/abs/2111.10275v4
- Date: Tue, 27 Feb 2024 11:32:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 01:23:04.876333
- Title: Composite Goodness-of-fit Tests with Kernels
- Title(参考訳): カーネルを用いた複合適合試験
- Authors: Oscar Key, Arthur Gretton, Fran\c{c}ois-Xavier Briol, Tamara Fernandez
- Abstract要約: 本稿では,難解な複合テスト問題に対するカーネルベースの仮説テストを提案する。
実験では,最小距離推定器を用いて,最大平均誤差とカーネルのStein誤差を推定した。
主な結果として、パラメータを推定し、正しいテストレベルを維持しながら、同じデータ上でテストを実行することができることを示す。
- 参考スコア(独自算出の注目度): 19.744607024807188
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model misspecification can create significant challenges for the
implementation of probabilistic models, and this has led to development of a
range of robust methods which directly account for this issue. However, whether
these more involved methods are required will depend on whether the model is
really misspecified, and there is a lack of generally applicable methods to
answer this question. In this paper, we propose one such method. More
precisely, we propose kernel-based hypothesis tests for the challenging
composite testing problem, where we are interested in whether the data comes
from any distribution in some parametric family. Our tests make use of minimum
distance estimators based on the maximum mean discrepancy and the kernel Stein
discrepancy. They are widely applicable, including whenever the density of the
parametric model is known up to normalisation constant, or if the model takes
the form of a simulator. As our main result, we show that we are able to
estimate the parameter and conduct our test on the same data (without data
splitting), while maintaining a correct test level. Our approach is illustrated
on a range of problems, including testing for goodness-of-fit of an
unnormalised non-parametric density model, and an intractable generative model
of a biological cellular network.
- Abstract(参考訳): モデルの不特定は確率的モデルの実装に重大な課題を生じさせうるため、この問題を直接的に考慮する様々な堅牢な手法の開発につながっている。
しかし、これらのより関連するメソッドが必要かどうかは、モデルが本当に誤った仕様であるかどうかに依存し、この質問に答える一般的な方法が欠如している。
本稿では,そのような方法を提案する。
より正確には、あるパラメトリックな家系の任意の分布からデータが得られるかどうかに関心を持つ、難しい複合テスト問題に対するカーネルベースの仮説テストを提案する。
実験では,最小距離推定器を用いて,最大平均誤差とカーネルのスタイン誤差を推定する。
これらは広く適用可能であり、パラメトリックモデルの密度が正規化定数まで分かる場合や、モデルがシミュレータの形式を取る場合などである。
その結果,適切なテストレベルを維持しつつ,パラメータを推定し,同じデータに対して(データ分割を伴わずに)テストを行うことが可能であることが判明した。
提案手法は, 異常な非パラメトリック密度モデルの有効性の検証や, 生体細胞ネットワークの難易度生成モデルなど, 様々な問題について考察する。
関連論文リスト
- Precise Error Rates for Computationally Efficient Testing [75.63895690909241]
本稿では,計算複雑性に着目した単純な対数-単純仮説テストの問題を再考する。
線形スペクトル統計に基づく既存の試験は、I型とII型の誤差率の間の最良のトレードオフ曲線を達成する。
論文 参考訳(メタデータ) (2023-11-01T04:41:16Z) - Test Set Sizing Via Random Matrix Theory [91.3755431537592]
本稿ではランダム行列理論の手法を用いて、単純な線形回帰に対して理想的なトレーニング-テストデータ分割を求める。
それは「理想」を整合性計量を満たすものとして定義し、すなわち経験的モデル誤差は実際の測定ノイズである。
本論文は,任意のモデルのトレーニングとテストサイズを,真に最適な方法で解決した最初の論文である。
論文 参考訳(メタデータ) (2021-12-11T13:18:33Z) - Universal Inference Meets Random Projections: A Scalable Test for
Log-concavity [26.315973370589553]
任意の次元の有限標本で証明可能な対数凹凸の最初のテストを示す。
実験により, D次元試験問題を多くの一次元問題に変換するために, ランダム・プロジェクションを用いて高出力が得られることがわかった。
論文 参考訳(メタデータ) (2021-11-17T17:34:44Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Testing for Typicality with Respect to an Ensemble of Learned
Distributions [5.850572971372637]
適合性のよい問題に対する一サンプルのアプローチは、オンラインテストに多大な計算上の利点をもたらす。
この設定において異常データを正しく否定する能力は、ベース分布のモデルの精度に依存する。
既成の正当性問題に対する既存の手法は、基底分布のモデルが学習されたという事実を考慮に入れない。
本稿では,アンサンブルの任意の構成員に対して,データが異常であれば異常データとなることを考慮し,密度モデルのアンサンブルを訓練することを提案する。
論文 参考訳(メタデータ) (2020-11-11T19:47:46Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - A Causal Direction Test for Heterogeneous Populations [10.653162005300608]
ほとんどの因果モデルでは、単一の同質な集団を仮定するが、これは多くの応用において成り立たない仮定である。
等質性仮定に違反した場合、そのような仮定に基づいて開発された因果モデルが正しい因果方向を識別できないことを示す。
我々は,$k$-means型クラスタリングアルゴリズムを用いて,一般的な因果方向検定統計量の調整を提案する。
論文 参考訳(メタデータ) (2020-06-08T18:59:14Z) - Amortized Bayesian model comparison with evidential deep learning [0.12314765641075436]
本稿では,専門的なディープラーニングアーキテクチャを用いたベイズモデルの比較手法を提案する。
提案手法は純粋にシミュレーションベースであり,観測された各データセットに対して,すべての代替モデルを明示的に適合させるステップを回避している。
提案手法は,本研究で検討した事例に対して,精度,キャリブレーション,効率の点で優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2020-04-22T15:15:46Z) - A Kernel Stein Test for Comparing Latent Variable Models [48.32146056855925]
本稿では、相対的適合性を示すカーネルベースの非パラメトリックテストを提案する。このテストの目的は、2つのモデルを比較することである。
本試験は, モデルから得られたサンプルに基づいて, 潜伏構造を利用せず, 相対的な最大平均離散性試験よりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2019-07-01T07:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。