論文の概要: Conditional independence testing under misspecified inductive biases
- arxiv url: http://arxiv.org/abs/2307.02520v2
- Date: Fri, 27 Oct 2023 22:33:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 20:47:45.291075
- Title: Conditional independence testing under misspecified inductive biases
- Title(参考訳): 不特定誘導バイアス下における条件付き独立試験
- Authors: Felipe Maia Polo, Yuekai Sun, Moulinath Banerjee
- Abstract要約: 本研究では, 回帰型CIテストの性能を不特定帰納バイアス下で検討した。
すなわち,3つの回帰テストの誤差に対する新しい近似や上限を提案する。
我々は,不特定帰納バイアスに対して頑健な回帰型CIテストであるRao-Blackwellized Predictor Test (RBPT)を導入する。
- 参考スコア(独自算出の注目度): 27.34558936393097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conditional independence (CI) testing is a fundamental and challenging task
in modern statistics and machine learning. Many modern methods for CI testing
rely on powerful supervised learning methods to learn regression functions or
Bayes predictors as an intermediate step; we refer to this class of tests as
regression-based tests. Although these methods are guaranteed to control Type-I
error when the supervised learning methods accurately estimate the regression
functions or Bayes predictors of interest, their behavior is less understood
when they fail due to misspecified inductive biases; in other words, when the
employed models are not flexible enough or when the training algorithm does not
induce the desired predictors. Then, we study the performance of
regression-based CI tests under misspecified inductive biases. Namely, we
propose new approximations or upper bounds for the testing errors of three
regression-based tests that depend on misspecification errors. Moreover, we
introduce the Rao-Blackwellized Predictor Test (RBPT), a regression-based CI
test robust against misspecified inductive biases. Finally, we conduct
experiments with artificial and real data, showcasing the usefulness of our
theory and methods.
- Abstract(参考訳): 条件付き独立テスト(CI)は、現代の統計学と機械学習における基本的な課題である。
現代のCIテストの多くの方法は、回帰関数やベイズ予測器を中間ステップとして学習するための強力な教師付き学習手法に依存している。
これらの手法は、教師付き学習方法が回帰関数を正確に推定したり、関心のベイズ予測器を推定した場合にタイプiの誤りを制御することが保証されているが、不特定の帰納バイアスのために失敗した場合、あるいはトレーニングアルゴリズムが所望の予測器を誘導しない場合、それらの行動は理解されていない。
次に,不特定誘導バイアス下での回帰型CIテストの性能について検討した。
具体的には,不特定化誤差に依存する3つの回帰に基づくテストの誤差に対する新しい近似あるいは上限を提案する。
さらに,不特定帰納バイアスに対して頑健な回帰型CIテストである Rao-Blackwellized Predictor Test (RBPT) を導入する。
最後に, 人工的および実データを用いた実験を行い, 理論と手法の有用性を示す。
関連論文リスト
- Evaluation of uncertainty estimations for Gaussian process regression based machine learning interatomic potentials [0.0]
機械学習の原子間ポテンシャルの不確実性推定は、導入した追加モデルエラーの定量化に不可欠である。
我々は、クーロンおよびSOAP表現を持つGPRモデルを、ポテンシャルエネルギー表面と分子の励起エネルギーを予測する入力として考える。
我々は,GPRの分散とアンサンブルに基づく不確かさが誤差とどのように関係しているか,また,固定された構成空間から最も不確実なサンプルを選択することによりモデル性能が向上するかを評価する。
論文 参考訳(メタデータ) (2024-10-27T10:06:09Z) - Detecting Model Misspecification in Amortized Bayesian Inference with Neural Networks: An Extended Investigation [9.950524371154394]
本研究では、教師なしの方法で訓練し、テスト時にモデルの誤特定を確実に検出できる新しい誤特定尺度を提案する。
提案手法は,不審な出力をユーザに警告し,予測が信頼できない場合に警告を発し,モデル設計者がより良いシミュレータを探索する際の指針となることを示す。
論文 参考訳(メタデータ) (2024-06-05T11:30:16Z) - Uncertainty-Calibrated Test-Time Model Adaptation without Forgetting [55.17761802332469]
テスト時間適応(TTA)は、与えられたモデルw.r.t.を任意のテストサンプルに適用することにより、トレーニングデータとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
事前の手法は各テストサンプルに対してバックプロパゲーションを実行するため、多くのアプリケーションに対して許容できない最適化コストがかかる。
本稿では, 有効サンプル選択基準を策定し, 信頼性および非冗長なサンプルを同定する, 効率的なアンチフォッティングテスト時間適応法を提案する。
論文 参考訳(メタデータ) (2024-03-18T05:49:45Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - Test Generation Strategies for Building Failure Models and Explaining
Spurious Failures [4.995172162560306]
テスト入力は、テスト対象のシステムが故障している場合だけでなく、入力が無効または非現実的である場合も失敗する。
テストインプットに対して解釈可能なルールを推論し,重大な障害を引き起こす障害モデルを構築することを提案する。
提案手法は, 平均精度83%の故障モデルを生成する。
論文 参考訳(メタデータ) (2023-12-09T18:36:15Z) - Precise Error Rates for Computationally Efficient Testing [75.63895690909241]
本稿では,計算複雑性に着目した単純な対数-単純仮説テストの問題を再考する。
線形スペクトル統計に基づく既存の試験は、I型とII型の誤差率の間の最良のトレードオフ曲線を達成する。
論文 参考訳(メタデータ) (2023-11-01T04:41:16Z) - Selective Nonparametric Regression via Testing [54.20569354303575]
本研究では,所定の点における条件分散の値に関する仮説を検証し,留置手順を開発する。
既存の手法とは異なり、提案手法は分散自体の値だけでなく、対応する分散予測器の不確実性についても考慮することができる。
論文 参考訳(メタデータ) (2023-09-28T13:04:11Z) - Sequential Kernelized Independence Testing [101.22966794822084]
我々は、カーネル化依存度にインスパイアされたシーケンシャルなカーネル化独立試験を設計する。
シミュレーションデータと実データの両方にアプローチのパワーを実証する。
論文 参考訳(メタデータ) (2022-12-14T18:08:42Z) - Learning to Increase the Power of Conditional Randomization Tests [8.883733362171032]
モデル-X条件ランダム化テストは、条件独立性テストのための一般的なフレームワークである。
本稿では,モデルXテストのパワー向上を目的とした新しいモデル適合方式を提案する。
論文 参考訳(メタデータ) (2022-07-03T12:29:25Z) - Certifying Data-Bias Robustness in Linear Regression [12.00314910031517]
本稿では, 線形回帰モデルが学習データセットのラベルバイアスに対して, ポイントワイズで損なわれているかどうかを検証する手法を提案する。
この問題を個々のテストポイントに対して正確に解く方法を示し、近似的だがよりスケーラブルな方法を提供する。
また、いくつかのデータセット上の特定のバイアス仮定に対して、高いレベルの非腐食性など、バイアス-腐食性のギャップを掘り下げる。
論文 参考訳(メタデータ) (2022-06-07T20:47:07Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。