論文の概要: On the Robustness of Kernel Goodness-of-Fit Tests
- arxiv url: http://arxiv.org/abs/2408.05854v2
- Date: Fri, 23 Aug 2024 08:32:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-26 17:21:03.876636
- Title: On the Robustness of Kernel Goodness-of-Fit Tests
- Title(参考訳): Kernel Goodness-of-Fitテストのロバスト性について
- Authors: Xing Liu, François-Xavier Briol,
- Abstract要約: 既存のカーネル良性テストは、ロバスト性という一般的な概念により堅牢ではないことを示す。
本稿では,このオープンな問題をカーネルStein離散性球を用いて解決する,最初の堅牢なカーネル善良性テストを提案する。
- 参考スコア(独自算出の注目度): 5.959410850280868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Goodness-of-fit testing is often criticized for its lack of practical relevance; since ``all models are wrong'', the null hypothesis that the data conform to our model is ultimately always rejected when the sample size is large enough. Despite this, probabilistic models are still used extensively, raising the more pertinent question of whether the model is good enough for a specific task. This question can be formalized as a robust goodness-of-fit testing problem by asking whether the data were generated by a distribution corresponding to our model up to some mild perturbation. In this paper, we show that existing kernel goodness-of-fit tests are not robust according to common notions of robustness including qualitative and quantitative robustness. We also show that robust techniques based on tilted kernels from the parameter estimation literature are not sufficient for ensuring both types of robustness in the context of goodness-of-fit testing. We therefore propose the first robust kernel goodness-of-fit test which resolves this open problem using kernel Stein discrepancy balls, which encompass perturbation models such as Huber contamination models and density uncertainty bands.
- Abstract(参考訳): すべてのモデルが間違っている''''' であるため、サンプルサイズが十分に大きい場合、データが我々のモデルに準拠しているというヌル仮説は常に拒否される。
それにもかかわらず、確率モデルはまだ広く使われており、特定のタスクに十分なモデルかどうかというより関連する疑問が提起されている。
この問題は、我々のモデルに対応する分布から、ある程度の摂動まで、データが生成されるかどうかを問うことで、堅牢な適合性テスト問題として定式化することができる。
本稿では,既存のカーネルの良性テストが質的,定量的な堅牢性といった,ロバスト性という一般的な概念に従えば,ロバスト性は向上しないことを示す。
また、パラメータ推定文献からの傾きカーネルに基づくロバスト手法は、良質なテストの文脈において、両方のロバスト性を保証するには不十分であることを示す。
そこで本研究では,ハマー汚染モデルや密度不確かさ帯などの摂動モデルを含むカーネル・スタイン離散性球を用いて,この問題を解決した最初の堅牢なカーネル良性テストを提案する。
関連論文リスト
- A Bias-Variance-Covariance Decomposition of Kernel Scores for Generative Models [13.527864898609398]
カーネルスコアに対する最初のバイアス-分散-共分散分解を導入する。
不確実性推定のためのカーネルベースの分散とエントロピーを導出する。
カーネルの広範な適用性に基づいて、画像、音声、言語生成のための一般化および不確実性実験を通じて、我々のフレームワークを実証する。
論文 参考訳(メタデータ) (2023-10-09T16:22:11Z) - Shortcomings of Top-Down Randomization-Based Sanity Checks for
Evaluations of Deep Neural Network Explanations [67.40641255908443]
モデルランダム化に基づく正当性チェックの限界を,説明書の評価のために同定する。
トップダウンモデルランダム化は、フォワードパスアクティベーションのスケールを高い確率で保存する。
論文 参考訳(メタデータ) (2022-11-22T18:52:38Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Kernel Robust Hypothesis Testing [20.78285964841612]
本稿では,カーネル方式を用いて不確実性集合をデータ駆動方式で構築する。
目標は、不確実性集合上の最悪のケース分布の下でうまく機能するテストを設計することである。
Neyman-Pearsonの設定では、誤検知の最悪のケース確率を最小限に抑え、誤警報の最悪のケース確率を制約する。
論文 参考訳(メタデータ) (2022-03-23T23:59:03Z) - Theoretical characterization of uncertainty in high-dimensional linear
classification [24.073221004661427]
本研究では,高次元入力データとラベルの限られたサンプル数から学習する不確実性が,近似メッセージパッシングアルゴリズムによって得られることを示す。
我々は,信頼度を適切に正則化することで緩和する方法について論じるとともに,損失に対するクロスバリデーションが0/1誤差よりもキャリブレーションが優れていることを示す。
論文 参考訳(メタデータ) (2022-02-07T15:32:07Z) - Composite Goodness-of-fit Tests with Kernels [19.744607024807188]
本稿では,難解な複合テスト問題に対するカーネルベースの仮説テストを提案する。
実験では,最小距離推定器を用いて,最大平均誤差とカーネルのStein誤差を推定した。
主な結果として、パラメータを推定し、正しいテストレベルを維持しながら、同じデータ上でテストを実行することができることを示す。
論文 参考訳(メタデータ) (2021-11-19T15:25:06Z) - When Hearst Is not Enough: Improving Hypernymy Detection from Corpus
with Distributional Models [59.46552488974247]
本稿では,大きなテキストコーパスの助けを借りて,単語 (x, y) 間のis-a関係が存在するかどうかを論じる。
近年の研究では、大規模なハーストペアを抽出して給餌し、目に見えない(x, y)ペアの親和性が緩和された場合、パターンベースのペアの方が優れていることが示唆されている。
本稿では,これらの特定の事例の非無視的存在を初めて定量化し,その場合の分布法がパターンベースの事例を補うのに最適であることを示す。
論文 参考訳(メタデータ) (2020-10-10T08:34:19Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - The Curse of Performance Instability in Analysis Datasets: Consequences,
Source, and Suggestions [93.62888099134028]
自然言語推論(NLI)および読み込み(RC)解析/ストレスセットにおける最先端モデルの性能は極めて不安定であることがわかった。
このことは、(1)不安定さがこれらの分析セットに基づいて引き出された結論の信頼性にどのように影響するかという3つの疑問を提起する。
不安定の原因に関する理論的説明と実証的証拠の両方を提示する。
論文 参考訳(メタデータ) (2020-04-28T15:41:12Z) - A Kernel Stein Test for Comparing Latent Variable Models [48.32146056855925]
本稿では、相対的適合性を示すカーネルベースの非パラメトリックテストを提案する。このテストの目的は、2つのモデルを比較することである。
本試験は, モデルから得られたサンプルに基づいて, 潜伏構造を利用せず, 相対的な最大平均離散性試験よりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2019-07-01T07:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。