論文の概要: Externally Valid Policy Evaluation Combining Trial and Observational
Data
- arxiv url: http://arxiv.org/abs/2310.14763v1
- Date: Mon, 23 Oct 2023 10:01:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 21:09:39.085436
- Title: Externally Valid Policy Evaluation Combining Trial and Observational
Data
- Title(参考訳): 試行と観測データを組み合わせた外部妥当性評価
- Authors: Sofia Ek, Dave Zachariah
- Abstract要約: 対象人口に対する政策の結果について有効な推測を行うために,試行データを用いたい。
本研究では,任意のモデル誤校正範囲下で有効な試行ベースの政策評価を行う手法を開発した。
- 参考スコア(独自算出の注目度): 8.122270502556372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Randomized trials are widely considered as the gold standard for evaluating
the effects of decision policies. Trial data is, however, drawn from a
population which may differ from the intended target population and this raises
a problem of external validity (aka. generalizability). In this paper we seek
to use trial data to draw valid inferences about the outcome of a policy on the
target population. Additional covariate data from the target population is used
to model the sampling of individuals in the trial study. We develop a method
that yields certifiably valid trial-based policy evaluations under any
specified range of model miscalibrations. The method is nonparametric and the
validity is assured even with finite samples. The certified policy evaluations
are illustrated using both simulated and real data.
- Abstract(参考訳): ランダム化試験は意思決定政策の効果を評価するための金の基準として広く考えられている。
しかし、試行データは意図された対象人口と異なる集団から引き出されたものであり、これは外的妥当性(つまり一般化可能性)の問題を引き起こす。
本稿では,対象人口に対する政策の結果について,有効な推測を行うために試行データを用いた。
対象個体群からの追加の共変量データは、試験研究における個人のサンプリングをモデル化するために使用される。
特定のモデルミスカバリレーションの範囲で検証可能な試行ベースの政策評価を行う手法を開発した。
この方法は非パラメトリックであり、有限サンプルであっても妥当性が保証される。
認証されたポリシー評価は、シミュレーションデータと実データの両方を用いて図示される。
関連論文リスト
- On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - Conformal Off-Policy Evaluation in Markov Decision Processes [53.786439742572995]
強化学習は、データから効率的な制御ポリシーを特定し評価することを目的としている。
この学習タスクのほとんどの方法は、Off-Policy Evaluation (OPE)と呼ばれ、正確さと確実性を保証するものではない。
本稿では,目標方針の真報を含む区間を所定の確信度で出力するコンフォーマル予測に基づく新しいOPE手法を提案する。
論文 参考訳(メタデータ) (2023-04-05T16:45:11Z) - Improved Policy Evaluation for Randomized Trials of Algorithmic Resource
Allocation [54.72195809248172]
提案する新しい概念を応用した新しい推定器を提案する。
我々は,このような推定器が,サンプル手段に基づく一般的な推定器よりも精度が高いことを理論的に証明した。
論文 参考訳(メタデータ) (2023-02-06T05:17:22Z) - Off-Policy Evaluation with Out-of-Sample Guarantees [21.527138355664174]
過去の観測データを用いて意思決定ポリシーの性能を評価することの問題点を考察する。
本研究では,損失分布全体について,有限サンプルのカバレッジ保証でそのような推論を導出可能であることを示す。
この評価方法は、特定の信頼可能なモデル仮定の範囲で観測データを用いてポリシーの性能を認証するために用いられる。
論文 参考訳(メタデータ) (2023-01-20T15:56:39Z) - Systematic Evaluation of Predictive Fairness [60.0947291284978]
バイアス付きデータセットのトレーニングにおけるバイアスの緩和は、重要なオープンな問題である。
複数のタスクにまたがる様々なデバイアス化手法の性能について検討する。
データ条件が相対モデルの性能に強い影響を与えることがわかった。
論文 参考訳(メタデータ) (2022-10-17T05:40:13Z) - Externally Valid Policy Choice [0.0]
対外的あるいは一般化可能なパーソナライズされた治療方針を学習することの問題点を考察する。
まず,実験人口に対する福祉最大化政策は,成果の分布の変化に対して堅牢であることを示す。
そして、結果や特徴の変化に頑健な政策を学ぶための新しい方法を開発する。
論文 参考訳(メタデータ) (2022-05-11T15:19:22Z) - Identification of Subgroups With Similar Benefits in Off-Policy Policy
Evaluation [60.71312668265873]
我々は,パーソナライズの必要性と自信ある予測とのバランスをとる方法を開発した。
本手法は不均一な治療効果の正確な予測に有効であることを示す。
論文 参考訳(メタデータ) (2021-11-28T23:19:12Z) - Case-based off-policy policy evaluation using prototype learning [8.550140109387467]
プロトタイプ学習を用いた非政治政策評価のための行動ポリシーの推定について提案する。
本稿では,プロトタイプが目標と行動方針の相違点を要約する方法について述べる。
また、ターゲットポリシーのどの部分が見積もりに最も影響しているかをよりよく理解するために、プロトタイプの観点から推定値についても記述する。
論文 参考訳(メタデータ) (2021-11-22T11:03:45Z) - Off-Policy Evaluation of Bandit Algorithm from Dependent Samples under
Batch Update Policy [8.807587076209566]
オフ・ポリティクス評価(OPE)の目的は、行動政策を通じて得られた履歴データを用いて、新しい政策を評価することである。
文脈的帯域幅は過去の観測に基づいてポリシーを更新するため、サンプルは独立ではなく、同一に分布する。
本稿では,従属サンプルに対するマーチンゲール差分列(MDS)から推定器を構築することにより,この問題に対処する。
論文 参考訳(メタデータ) (2020-10-23T15:22:57Z) - Doubly Robust Off-Policy Value and Gradient Estimation for Deterministic
Policies [80.42316902296832]
本研究では,行動継続時の非政治データから決定論的政策の政策値と勾配を推定する。
この設定では、密度比が存在しないため、標準重要度サンプリングとポリシー値と勾配の2倍の頑健な推定が失敗する。
異なるカーネル化アプローチに基づく2つの新しい頑健な推定器を提案する。
論文 参考訳(メタデータ) (2020-06-06T15:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。