論文の概要: Externally Valid Treatment Choice
- arxiv url: http://arxiv.org/abs/2205.05561v1
- Date: Wed, 11 May 2022 15:19:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 20:01:49.153148
- Title: Externally Valid Treatment Choice
- Title(参考訳): 外部バリデード治療選択
- Authors: Christopher Adjaho and Timothy Christensen
- Abstract要約: 外部的に有効な治療(政策)ルールの学習問題を考察する。
我々は,実験人口における社会福祉を最大化する政策が最適である,形式的な感覚を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of learning treatment (or policy) rules that are
externally valid in the sense that they have welfare guarantees in target
populations that are similar to, but possibly different from, the experimental
population. We allow for shifts in both the distribution of potential outcomes
and covariates between the experimental and target populations. This paper
makes two main contributions. First, we provide a formal sense in which
policies that maximize social welfare in the experimental population remain
optimal for the "worst-case" social welfare when the distribution of potential
outcomes (but not covariates) shifts. Hence, policy learning methods that have
good regret guarantees in the experimental population, such as empirical
welfare maximization, are externally valid with respect to a class of shifts in
potential outcomes. Second, we develop methods for policy learning that are
robust to shifts in the joint distribution of potential outcomes and
covariates. Our methods may be used with experimental or observational data.
- Abstract(参考訳): 本研究は, 対象個体群における福祉保障が, 実験個体群と類似する, または, 異なる可能性があるという観点から, 外部的に有効な学習治療(あるいは政策)ルールの問題を考える。
実験と対象個体間の潜在的な結果の分布と共変量の変化を許容する。
本論文の主な貢献は2つある。
まず,実験人口における社会福祉を最大化する政策が,潜在的成果の分配(共変量ではない)が変化した場合の社会福祉に最適である,というフォーマルな感覚を提供する。
したがって、実証的福祉の最大化など、実験的な集団において良好な後悔の保証を有する政策学習方法は、潜在的な成果における一連の変化に関して外部的に有効である。
第2に,潜在成果と共変量の同時分布の変化にロバストな政策学習手法を開発した。
本手法は実験データや観測データで用いることができる。
関連論文リスト
- Adaptive Instrument Design for Indirect Experiments [48.815194906471405]
RCTとは異なり、間接的な実験は条件付き機器変数を利用して治療効果を推定する。
本稿では,データ収集ポリシーを適応的に設計することで,間接実験におけるサンプル効率の向上に向けた最初のステップについて述べる。
我々の主な貢献は、影響関数を利用して最適なデータ収集ポリシーを探索する実用的な計算手順である。
論文 参考訳(メタデータ) (2023-12-05T02:38:04Z) - Policy Learning with Distributional Welfare [1.2691047660244337]
治療選択に関する文献の多くは、条件平均治療効果(ATE)に基づく実用的福祉を考慮したものである。
本稿では,個別処理効果(QoTE)の条件量子化に基づく処理を最適に割り当てる政策を提案する。
論文 参考訳(メタデータ) (2023-11-27T14:51:30Z) - Externally Valid Policy Evaluation Combining Trial and Observational
Data [8.122270502556372]
対象人口に対する政策の結果について有効な推測を行うために,試行データを用いたい。
本研究では,任意のモデル誤校正範囲下で有効な試行ベースの政策評価を行う手法を開発した。
論文 参考訳(メタデータ) (2023-10-23T10:01:50Z) - Effect-Invariant Mechanisms for Policy Generalization [3.701112941066256]
不変条件分布を利用して、目に見えない環境をより一般化するモデルを学ぶことが提案されている。
効果不変性(英語版)と呼ばれる完全な不変性の緩和を導入し、ゼロショットポリシーの一般化には適切な仮定の下で十分であることを示す。
シミュレーションデータと移動体保健介入データセットを用いて実験結果を提示し,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2023-06-19T14:50:24Z) - Learnable Behavior Control: Breaking Atari Human World Records via
Sample-Efficient Behavior Selection [56.87650511573298]
本稿では,LBC(Learable Behavioral Control)と呼ばれるフレームワークを提案する。
我々のエージェントは10077.52%の平均正規化スコアを達成し、1Bのトレーニングフレーム内で24人の世界記録を突破した。
論文 参考訳(メタデータ) (2023-05-09T08:00:23Z) - Conformal Off-Policy Evaluation in Markov Decision Processes [53.786439742572995]
強化学習は、データから効率的な制御ポリシーを特定し評価することを目的としている。
この学習タスクのほとんどの方法は、Off-Policy Evaluation (OPE)と呼ばれ、正確さと確実性を保証するものではない。
本稿では,目標方針の真報を含む区間を所定の確信度で出力するコンフォーマル予測に基づく新しいOPE手法を提案する。
論文 参考訳(メタデータ) (2023-04-05T16:45:11Z) - Policy learning "without'' overlap: Pessimism and generalized empirical
Bernstein's inequality [107.84979976896912]
オフライン政策学習は、収集された優先順位を利用して、最適な個別化決定ルールを学ぶことを目的としている。
既存のポリシー学習手法は、一様重なりの仮定、すなわち、すべての個々の特性に対する全てのアクションを探索する確率は、オフラインデータセットにおいて低い境界となる。
本稿では,政策値の点推定ではなく,低信頼境界(LCB)を最適化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-19T22:43:08Z) - Latent-Variable Advantage-Weighted Policy Optimization for Offline RL [70.01851346635637]
オフラインの強化学習メソッドは、新しいトランジションを環境に問い合わせる必要なしに、事前にコンパイルされたデータセットから学習ポリシーを保証します。
実際には、オフラインデータセットは、しばしば異種、すなわち様々なシナリオで収集される。
より広範な政策分布を表現できる潜在変数ポリシーを活用することを提案する。
提案手法は,次回のオフライン強化学習法の性能を,異種データセット上で49%向上させる。
論文 参考訳(メタデータ) (2022-03-16T21:17:03Z) - Generalizing Off-Policy Learning under Sample Selection Bias [15.733136147164032]
本稿では,対象人口に一般化する学習政策の枠組みを提案する。
不確実性セットが適切に特定されている場合、トレーニングデータよりも悪いことができないため、我々の政策が対象人口に一般化されることを実証する。
論文 参考訳(メタデータ) (2021-12-02T16:18:16Z) - Policy design in experiments with unknown interference [0.0]
流出効果を考慮した政策の推定と推定について検討した。
単位は有限個の大きなクラスタにまとめられる。
本研究では,大規模フィールド実験における理論的保証と実装について述べる。
論文 参考訳(メタデータ) (2020-11-16T18:58:54Z) - Enabling Counterfactual Survival Analysis with Balanced Representations [64.17342727357618]
生存データは様々な医学的応用、すなわち薬物開発、リスクプロファイリング、臨床試験で頻繁に見られる。
本稿では,生存結果に適用可能な対実的推論のための理論的基盤を持つ統一的枠組みを提案する。
論文 参考訳(メタデータ) (2020-06-14T01:15:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。