論文の概要: Uplift modeling with continuous treatments: A predict-then-optimize approach
- arxiv url: http://arxiv.org/abs/2412.09232v1
- Date: Thu, 12 Dec 2024 12:43:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-13 13:31:42.769702
- Title: Uplift modeling with continuous treatments: A predict-then-optimize approach
- Title(参考訳): 連続的治療による昇降モデリング:予測-理論-最適化アプローチ
- Authors: Simon De Vos, Christopher Bockel-Rickermann, Stefan Lessmann, Wouter Verbeke,
- Abstract要約: アップリフトモデリングの目標は、どのエンティティが治療を受けるべきかを決定することで、特定の成果を最適化するアクションを推奨することである。
アップリフトモデリングは通常二項処理に重点を置いているが、現実の多くのアプリケーションは連続的に評価された処理によって特徴づけられる。
本稿では,揚力モデリングにおける連続的な処理を可能にする予測型最適化フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.132346971686944
- License:
- Abstract: The goal of uplift modeling is to recommend actions that optimize specific outcomes by determining which entities should receive treatment. One common approach involves two steps: first, an inference step that estimates conditional average treatment effects (CATEs), and second, an optimization step that ranks entities based on their CATE values and assigns treatment to the top k within a given budget. While uplift modeling typically focuses on binary treatments, many real-world applications are characterized by continuous-valued treatments, i.e., a treatment dose. This paper presents a predict-then-optimize framework to allow for continuous treatments in uplift modeling. First, in the inference step, conditional average dose responses (CADRs) are estimated from data using causal machine learning techniques. Second, in the optimization step, we frame the assignment task of continuous treatments as a dose-allocation problem and solve it using integer linear programming (ILP). This approach allows decision-makers to efficiently and effectively allocate treatment doses while balancing resource availability, with the possibility of adding extra constraints like fairness considerations or adapting the objective function to take into account instance-dependent costs and benefits to maximize utility. The experiments compare several CADR estimators and illustrate the trade-offs between policy value and fairness, as well as the impact of an adapted objective function. This showcases the framework's advantages and flexibility across diverse applications in healthcare, lending, and human resource management. All code is available on github.com/SimonDeVos/UMCT.
- Abstract(参考訳): アップリフトモデリングの目標は、どのエンティティが治療を受けるべきかを決定することで、特定の成果を最適化するアクションを推奨することである。
1つは条件平均処理効果(CATE)を推定する推論ステップ、もう1つは、CATE値に基づいてエンティティをランク付けし、与えられた予算の中で上位kに処理を割り当てる最適化ステップである。
アップリフトモデリングは通常二項処理に焦点をあてるが、現実の多くの応用は連続的に評価された治療、すなわち治療用量によって特徴づけられる。
本稿では,揚力モデリングにおける連続的な処理を可能にする予測列最適化フレームワークを提案する。
まず、推論ステップにおいて、因果機械学習技術を用いて、データから条件平均線量応答(CADR)を推定する。
第2に,連続処理の割り当てタスクを線量割当問題として設定し,整数線形計画法(ILP)を用いて解く。
このアプローチにより、意思決定者はリソース可用性のバランスを保ちながら、効率よく効果的に治療用量を割り当てることができる。
実験は、いくつかのCADR推定器を比較し、政策値と公正性のトレードオフと、適応された目的関数の影響を説明する。
これは、医療、貸与、人的資源管理における様々なアプリケーションにおけるフレームワークの利点と柔軟性を示している。
すべてのコードはgithub.com/SimonDeVos/UMCTで入手できる。
関連論文リスト
- Optimizing Treatment Allocation in the Presence of Interference [6.404584255185188]
影響最大化(IM)では、治療対象のネットワーク内の最適なエンティティセットを選択することが目的である。
昇降モデリング(UM)では、エンティティは推定処理効果に応じてランク付けされ、上位エンティティは処理を割り当てる。
本稿では,ネットワーク設定における治療効果を予測するために因果推定器を訓練し,従来のIMアルゴリズムに統合する方法について述べる。
論文 参考訳(メタデータ) (2024-09-30T15:48:22Z) - Denoising Pre-Training and Customized Prompt Learning for Efficient Multi-Behavior Sequential Recommendation [69.60321475454843]
マルチビヘイビアシークエンシャルレコメンデーションに適した,最初の事前学習および迅速な学習パラダイムであるDPCPLを提案する。
事前学習段階において,複数の時間スケールでノイズを除去する新しい行動マイナ (EBM) を提案する。
次に,提案するCustomized Prompt Learning (CPL)モジュールを用いて,事前学習したモデルを高効率にチューニングすることを提案する。
論文 参考訳(メタデータ) (2024-08-21T06:48:38Z) - Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - Metalearners for Ranking Treatment Effects [1.469168639465869]
政策の漸進的な利益曲線の下で、ランク付けの学習がいかにその領域を最大化できるかを示す。
政策の漸進的な利益曲線の下で、ランク付けの学習がいかにその領域を最大化できるかを示す。
論文 参考訳(メタデータ) (2024-05-03T15:31:18Z) - Doubly Robust Proximal Causal Learning for Continuous Treatments [56.05592840537398]
本稿では,カーネルベースの2倍頑健な因果学習推定器を提案する。
オラクル形式は影響関数の一貫した近似であることを示す。
次に、平均二乗誤差の観点から総合収束解析を行う。
論文 参考訳(メタデータ) (2023-09-22T12:18:53Z) - Taxonomy Adaptive Cross-Domain Adaptation in Medical Imaging via
Optimization Trajectory Distillation [73.83178465971552]
自動医用画像解析の成功は、大規模かつ専門家による注釈付きトレーニングセットに依存する。
非教師なしドメイン適応(UDA)はラベル付きデータ収集の負担を軽減するための有望なアプローチである。
本稿では,2つの技術的課題に新しい視点から対処する統一的手法である最適化トラジェクトリ蒸留を提案する。
論文 参考訳(メタデータ) (2023-07-27T08:58:05Z) - Optimal discharge of patients from intensive care via a data-driven
policy learning framework [58.720142291102135]
退院課題は、退院期間の短縮と退院決定後の退院や死亡のリスクとの不確実なトレードオフに対処することが重要である。
本研究は、このトレードオフを捉えるためのエンドツーエンドの汎用フレームワークを導入し、最適放電タイミング決定を推奨する。
データ駆動型アプローチは、患者の生理的状態を捉えた同種で離散的な状態空間表現を導出するために用いられる。
論文 参考訳(メタデータ) (2021-12-17T04:39:33Z) - Jump Interval-Learning for Individualized Decision Making [21.891586204541877]
個別化区間値決定ルール(I2DR)を開発するためのジャンプインターバル学習を提案する。
単一の治療を推奨するIDRとは異なり、提案されたI2DRは個々の治療オプションの間隔を与える。
論文 参考訳(メタデータ) (2021-11-17T03:29:59Z) - Estimation of Optimal Dynamic Treatment Assignment Rules under Policy Constraints [0.0]
本研究は,各段階の個人に対して,その履歴に基づいて最適な治療課題を導出する最適動的治療体制の推定について検討する。
提案手法は, 下位帰納的帰納的帰納的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属的帰属
論文 参考訳(メタデータ) (2021-06-09T12:42:53Z) - DTR Bandit: Learning to Make Response-Adaptive Decisions With Low Regret [59.81290762273153]
動的治療体制 (DTR) はパーソナライズされ適応された多段階の治療計画であり、治療決定を個人の初期特徴に適応させ、その後の各段階における中間結果と特徴に適応させる。
本稿では,探索と搾取を慎重にバランスさせることで,遷移モデルと報酬モデルが線形である場合に,速度-最適後悔を実現する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-06T13:03:42Z) - Learning Continuous Treatment Policy and Bipartite Embeddings for
Matching with Heterogeneous Causal Effects [8.525061716196424]
現在の方法では、単一の結果次元の処理効果に基づいて二項のイエスまたはノーの決定を行う。
本稿では, パラメトリザブルモデルとしての処理の有効性を定式化し, 様々な処理強度と複雑さにまで拡張することを提案する。
深層学習を利用して, 1次元の処理を非現実的に予測する代わりに, 所望の総体距離空間を最適化する。
論文 参考訳(メタデータ) (2020-04-21T01:36:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。