論文の概要: Composite Goodness-of-fit Tests with Kernels
- arxiv url: http://arxiv.org/abs/2111.10275v1
- Date: Fri, 19 Nov 2021 15:25:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-22 17:53:28.328789
- Title: Composite Goodness-of-fit Tests with Kernels
- Title(参考訳): カーネルを用いた複合適合試験
- Authors: Oscar Key, Tamara Fernandez, Arthur Gretton, Fran\c{c}ois-Xavier Briol
- Abstract要約: カーネルベースのテストは、データセットが固定分布によって生成されたかどうかをテストするために開発されている。
我々は、このラインを、より困難な複合的善良性問題に拡張する。
これは、パラメトリックモデルがデータに対して適切に指定されているかどうかをテストするのに等価である。
- 参考スコア(独自算出の注目度): 18.261907061749653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model misspecification can create significant challenges for the
implementation of probabilistic models, and this has led to development of a
range of inference methods which directly account for this issue. However,
whether these more involved methods are required will depend on whether the
model is really misspecified, and there is a lack of generally applicable
methods to answer this question. One set of tools which can help are
goodness-of-fit tests, where we test whether a dataset could have been
generated by a fixed distribution. Kernel-based tests have been developed to
for this problem, and these are popular due to their flexibility, strong
theoretical guarantees and ease of implementation in a wide range of scenarios.
In this paper, we extend this line of work to the more challenging composite
goodness-of-fit problem, where we are instead interested in whether the data
comes from any distribution in some parametric family. This is equivalent to
testing whether a parametric model is well-specified for the data.
- Abstract(参考訳): モデルの不特定は確率モデルの実装に重大な課題を生じさせ、これによってこの問題を直接的に考慮する様々な推論手法の開発につながった。
しかし、これらのより関連するメソッドが必要かどうかは、モデルが本当に誤った仕様であるかどうかに依存し、この質問に答える一般的な方法が欠如している。
適合度テスト(goodness-of-fit test)は、データセットが固定ディストリビューションによって生成された可能性があるかどうかをテストするためのツールである。
カーネルベースのテストはこの問題に対して開発されており、その柔軟性、強力な理論的保証、幅広いシナリオにおける実装の容易さから人気がある。
本稿では、この研究の行程を、より困難な複合適合性問題にまで拡張し、その代わりに、データがパラメトリックな家系の任意の分布から来るかどうかに興味を持つ。
これは、パラメトリックモデルがデータに対して適切に指定されているかどうかをテストすることと等価である。
関連論文リスト
- On the Robustness of Kernel Goodness-of-Fit Tests [5.959410850280868]
既存のカーネル良性テストは、ロバスト性という一般的な概念により堅牢ではないことを示す。
本稿では,このオープンな問題をカーネルStein離散性球を用いて解決する,最初の堅牢なカーネル善良性テストを提案する。
論文 参考訳(メタデータ) (2024-08-11T19:54:50Z) - Diffusion posterior sampling for simulation-based inference in tall data settings [53.17563688225137]
シミュレーションベース推論(SBI)は、入力パラメータを所定の観測に関連付ける後部分布を近似することができる。
本研究では、モデルのパラメータをより正確に推測するために、複数の観測値が利用できる、背の高いデータ拡張について考察する。
提案手法を,最近提案した各種数値実験の競合手法と比較し,数値安定性と計算コストの観点から,その優位性を実証した。
論文 参考訳(メタデータ) (2024-04-11T09:23:36Z) - Test Set Sizing Via Random Matrix Theory [91.3755431537592]
本稿ではランダム行列理論の手法を用いて、単純な線形回帰に対して理想的なトレーニング-テストデータ分割を求める。
それは「理想」を整合性計量を満たすものとして定義し、すなわち経験的モデル誤差は実際の測定ノイズである。
本論文は,任意のモデルのトレーニングとテストサイズを,真に最適な方法で解決した最初の論文である。
論文 参考訳(メタデータ) (2021-12-11T13:18:33Z) - Universal Inference Meets Random Projections: A Scalable Test for Log-concavity [30.073886309373226]
任意の次元の有限標本で証明可能な対数凹凸の最初のテストを示す。
D次元試験問題を多くの一次元問題に変換するランダム・プロジェクション・アプローチは高出力が得られる。
論文 参考訳(メタデータ) (2021-11-17T17:34:44Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Testing for Typicality with Respect to an Ensemble of Learned
Distributions [5.850572971372637]
適合性のよい問題に対する一サンプルのアプローチは、オンラインテストに多大な計算上の利点をもたらす。
この設定において異常データを正しく否定する能力は、ベース分布のモデルの精度に依存する。
既成の正当性問題に対する既存の手法は、基底分布のモデルが学習されたという事実を考慮に入れない。
本稿では,アンサンブルの任意の構成員に対して,データが異常であれば異常データとなることを考慮し,密度モデルのアンサンブルを訓練することを提案する。
論文 参考訳(メタデータ) (2020-11-11T19:47:46Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - A Causal Direction Test for Heterogeneous Populations [10.653162005300608]
ほとんどの因果モデルでは、単一の同質な集団を仮定するが、これは多くの応用において成り立たない仮定である。
等質性仮定に違反した場合、そのような仮定に基づいて開発された因果モデルが正しい因果方向を識別できないことを示す。
我々は,$k$-means型クラスタリングアルゴリズムを用いて,一般的な因果方向検定統計量の調整を提案する。
論文 参考訳(メタデータ) (2020-06-08T18:59:14Z) - A Kernel Stein Test for Comparing Latent Variable Models [48.32146056855925]
本稿では、相対的適合性を示すカーネルベースの非パラメトリックテストを提案する。このテストの目的は、2つのモデルを比較することである。
本試験は, モデルから得られたサンプルに基づいて, 潜伏構造を利用せず, 相対的な最大平均離散性試験よりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2019-07-01T07:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。