論文の概要: Learning to Increase the Power of Conditional Randomization Tests
- arxiv url: http://arxiv.org/abs/2207.01022v1
- Date: Sun, 3 Jul 2022 12:29:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 09:42:42.516203
- Title: Learning to Increase the Power of Conditional Randomization Tests
- Title(参考訳): 条件付きランダム化テストのパワーを高めるための学習
- Authors: Shalev Shaer and Yaniv Romano
- Abstract要約: モデル-X条件ランダム化テストは、条件独立性テストのための一般的なフレームワークである。
本稿では,モデルXテストのパワー向上を目的とした新しいモデル適合方式を提案する。
- 参考スコア(独自算出の注目度): 8.883733362171032
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The model-X conditional randomization test is a generic framework for
conditional independence testing, unlocking new possibilities to discover
features that are conditionally associated with a response of interest while
controlling type-I error rates. An appealing advantage of this test is that it
can work with any machine learning model to design powerful test statistics. In
turn, the common practice in the model-X literature is to form a test statistic
using machine learning models, trained to maximize predictive accuracy with the
hope to attain a test with good power. However, the ideal goal here is to drive
the model (during training) to maximize the power of the test, not merely the
predictive accuracy. In this paper, we bridge this gap by introducing, for the
first time, novel model-fitting schemes that are designed to explicitly improve
the power of model-X tests. This is done by introducing a new cost function
that aims at maximizing the test statistic used to measure violations of
conditional independence. Using synthetic and real data sets, we demonstrate
that the combination of our proposed loss function with various base predictive
models (lasso, elastic net, and deep neural networks) consistently increases
the number of correct discoveries obtained, while maintaining type-I error
rates under control.
- Abstract(参考訳): model-x条件付きランダム化テスト(model-x conditional randomization test)は条件付き独立性テストのための汎用的なフレームワークであり、タイプiのエラー率を制御しながら、関心の応答に条件付きで関連した特徴を発見するための新しい可能性を開く。
このテストの魅力的な利点は、強力なテスト統計を設計するためにどんな機械学習モデルとも連携できることである。
逆に、モデルX文献の一般的な実践は、優れたパワーでテストを達成するために予測精度を最大化するように訓練された機械学習モデルを使用してテスト統計を作成することである。
しかし、ここでの理想的な目標はモデル(トレーニング中)を、単なる予測精度ではなく、テストのパワーを最大化することです。
本稿では,model-xテストのパワーを明示的に向上させるように設計された,新たなモデルフィッティングスキームを導入することで,このギャップを埋める。
これは、条件付き独立性の違反を測定するために使用されるテスト統計を最大化する新しいコスト関数を導入することで実現される。
合成および実データを用いて、提案した損失関数と様々なベース予測モデル(ラスソ、弾性ネット、ディープニューラルネットワーク)を組み合わせることで、制御下でのタイプIエラー率を維持しながら、得られた正しい発見数を一貫して増加させることを示した。
関連論文リスト
- Precise Error Rates for Computationally Efficient Testing [75.63895690909241]
本稿では,計算複雑性に着目した単純な対数-単純仮説テストの問題を再考する。
線形スペクトル統計に基づく既存の試験は、I型とII型の誤差率の間の最良のトレードオフ曲線を達成する。
論文 参考訳(メタデータ) (2023-11-01T04:41:16Z) - Model-Free Sequential Testing for Conditional Independence via Testing
by Betting [8.293345261434943]
提案されたテストでは、任意の依存関係構造を持つ入ってくるi.d.データストリームを分析できる。
重要な結果が検出されれば,オンライン上でのデータポイントの処理を可能とし,データ取得を停止する。
論文 参考訳(メタデータ) (2022-10-01T20:05:33Z) - Model-agnostic out-of-distribution detection using combined statistical
tests [15.27980070479021]
本稿では,学習された生成モデルを用いた分布外検出のための簡易な手法を提案する。
古典的パラメトリックテスト(ラオのスコアテスト)と最近導入された定性テストを組み合わせる。
その単純さと汎用性にもかかわらず、これらの手法はモデル固有のアウト・オブ・ディストリビューション検出アルゴリズムと競合することがある。
論文 参考訳(メタデータ) (2022-03-02T13:32:09Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - MEMO: Test Time Robustness via Adaptation and Augmentation [131.28104376280197]
テスト時間ロバスト化の問題、すなわちモデルロバスト性を改善するためにテストインプットを用いて検討する。
最近の先行研究ではテスト時間適応法が提案されているが、それぞれ追加の仮定を導入している。
モデルが確率的で適応可能な任意のテスト環境で使用できるシンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:55:11Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Significance tests of feature relevance for a blackbox learner [6.72450543613463]
ブラックボックス学習者の特徴関連性に関する2つの一貫した試験を導出する。
第1は、推論サンプルの摂動による損失差を評価する。
2つ目は推論サンプルを2つに分割するが、データの摂動は必要ない。
論文 参考訳(メタデータ) (2021-03-02T00:59:19Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Monotonicity in practice of adaptive testing [0.0]
本稿では,最近提案された単調性勾配アルゴリズムを用いて学習した適応テストのためのベイジアンネットワークモデルについて検討する。
手法の質は、チェコ国立数学試験の大規模なデータセットで実証的に評価される。
論文 参考訳(メタデータ) (2020-09-15T10:55:41Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。