論文の概要: Treatment Effect Estimation for Optimal Decision-Making
- arxiv url: http://arxiv.org/abs/2505.13092v1
- Date: Mon, 19 May 2025 13:24:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.612914
- Title: Treatment Effect Estimation for Optimal Decision-Making
- Title(参考訳): 最適意思決定のための処理効果推定
- Authors: Dennis Frauen, Valentyn Melnychuk, Jonas Schweisthal, Stefan Feuerriegel,
- Abstract要約: 2段階CATE推定器を用いた最適意思決定について検討する。
本稿では,CATE推定誤差と判定性能のバランスをとるためにCATEを再ターゲットとした2段階学習目標を提案する。
- 参考スコア(独自算出の注目度): 25.068617118126824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision-making across various fields, such as medicine, heavily relies on conditional average treatment effects (CATEs). Practitioners commonly make decisions by checking whether the estimated CATE is positive, even though the decision-making performance of modern CATE estimators is poorly understood from a theoretical perspective. In this paper, we study optimal decision-making based on two-stage CATE estimators (e.g., DR-learner), which are considered state-of-the-art and widely used in practice. We prove that, while such estimators may be optimal for estimating CATE, they can be suboptimal when used for decision-making. Intuitively, this occurs because such estimators prioritize CATE accuracy in regions far away from the decision boundary, which is ultimately irrelevant to decision-making. As a remedy, we propose a novel two-stage learning objective that retargets the CATE to balance CATE estimation error and decision performance. We then propose a neural method that optimizes an adaptively-smoothed approximation of our learning objective. Finally, we confirm the effectiveness of our method both empirically and theoretically. In sum, our work is the first to show how two-stage CATE estimators can be adapted for optimal decision-making.
- Abstract(参考訳): 医学などの様々な分野における意思決定は、条件付き平均治療効果(CATE)に大きく依存している。
現代のCATE推定器の意思決定性能は理論的な観点からはほとんど理解されていないものの、予測されたCATEが肯定的かどうかを確認することで意思決定を行うのが一般的である。
本稿では,2段階のCATE推定器(例:DR-learner)に基づく最適意思決定について検討する。
これらの推定器はCATEの推定に最適であるが, 意思決定に使用する場合, 準最適であることを示す。
直感的には、このような推定器が決定境界から遠く離れた領域のCATE精度を優先するからである。
本稿では,CATE推定誤差と判定性能のバランスをとるためにCATEを再ターゲットとした2段階学習目標を提案する。
次に、適応的に平滑な学習目標の近似を最適化するニューラルネットワークを提案する。
最後に,本手法の有効性を実証的および理論的に検証した。
まとめると、我々の研究は、2段階のCATE推定器が最適な意思決定にどのように適応できるかを示す最初のものである。
関連論文リスト
- Sufficient Decision Proxies for Decision-Focused Learning [2.7143637678944454]
決定に焦点を当てた学習は、予測精度ではなく、決定品質が最大化されるような予測モデルを学ぶことを目的としている。
本稿では,いずれの仮定を用いても正当性を示す問題特性を初めて検討する。
本稿では,連続変数および離散変数の問題に対する実験における提案手法の有効性と,目的関数および制約における不確実性について述べる。
論文 参考訳(メタデータ) (2025-05-06T20:10:17Z) - Uplift modeling with continuous treatments: A predict-then-optimize approach [4.132346971686944]
アップリフトモデリングの目標は、どのエンティティが治療を受けるべきかを決定することで、特定の成果を最適化するアクションを推奨することである。
アップリフトモデリングは通常二項処理に重点を置いているが、現実の多くのアプリケーションは連続的に評価された処理によって特徴づけられる。
本稿では,揚力モデリングにおける連続的な処理を可能にする予測型最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-12T12:43:42Z) - Asymptotically Optimal Regret for Black-Box Predict-then-Optimize [7.412445894287709]
我々は,特別な構造を欠いた新たなブラックボックス予測最適化問題と,その行動から得られる報酬のみを観察する方法について検討した。
本稿では,経験的ソフトレグレット(ESR, Empirical Soft Regret)と呼ばれる新しい損失関数を提案する。
また、私たちのアプローチは、ニュースレコメンデーションやパーソナライズされた医療における現実の意思決定問題において、最先端のアルゴリズムよりも大幅に優れています。
論文 参考訳(メタデータ) (2024-06-12T04:46:23Z) - Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - Unveiling the Potential of Robustness in Selecting Conditional Average Treatment Effect Estimators [19.053826145863113]
本稿では,CATE推定器選択のための分布ロバスト計量(DRM)を提案する。
DRMはニュアンスフリーであり、ニュアンスパラメータのモデルに適合する必要がなくなる。
分散的に堅牢なCATE推定器の選択を効果的に優先順位付けする。
論文 参考訳(メタデータ) (2024-02-28T15:12:24Z) - B-Learner: Quasi-Oracle Bounds on Heterogeneous Causal Effects Under
Hidden Confounding [51.74479522965712]
本稿では,B-Learnerと呼ばれるメタラーナーを提案する。
我々は、その推定が有効で、鋭く、効率的であることを証明し、既存の方法よりも一般的な条件下で構成推定器に対して準オーラル特性を持つことを示した。
論文 参考訳(メタデータ) (2023-04-20T18:07:19Z) - Model-Free Reinforcement Learning with the Decision-Estimation
Coefficient [79.30248422988409]
本稿では,汎用関数近似による構造化帯域と強化学習を包含する対話型意思決定の課題について考察する。
提案手法は,値関数近似を用いたモデル自由強化学習における残差を導出し,より一般的には有効かつ不可能な構造的結果を与える。
論文 参考訳(メタデータ) (2022-11-25T17:29:40Z) - Policy-Adaptive Estimator Selection for Off-Policy Evaluation [12.1655494876088]
Off-policy Evaluation (OPE) は、オフラインログデータのみを使用して、カウンターファクトポリシーの性能を正確に評価することを目的としている。
本稿では,OPEにおける推定器選択の課題を初めて考察する。
特に、利用可能なログデータを適切にサブサンプリングし、擬似ポリシーを構築することにより、与えられたOPEタスクに適応する推定子選択を可能にする。
論文 参考訳(メタデータ) (2022-11-25T05:31:42Z) - Dynamic Iterative Refinement for Efficient 3D Hand Pose Estimation [87.54604263202941]
本稿では,従来の推定値の修正に部分的レイヤを反復的に活用する,小さなディープニューラルネットワークを提案する。
学習したゲーティング基準を用いて、ウェイトシェアリングループから抜け出すかどうかを判断し、モデルにサンプルごとの適応を可能にする。
提案手法は,広く使用されているベンチマークの精度と効率の両面から,最先端の2D/3Dハンドポーズ推定手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-11T23:31:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。