論文の概要: Learning Deep Features in Instrumental Variable Regression
- arxiv url: http://arxiv.org/abs/2010.07154v4
- Date: Tue, 27 Jun 2023 10:20:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 18:25:03.968981
- Title: Learning Deep Features in Instrumental Variable Regression
- Title(参考訳): インストゥルメンタル変数回帰における深い特徴の学習
- Authors: Liyuan Xu, Yutian Chen, Siddarth Srinivasan, Nando de Freitas, Arnaud
Doucet, Arthur Gretton
- Abstract要約: IVレグレッションでは、学習は2段階に進み、ステージ1は、機器から治療への線形回帰を行い、ステージ2は、機器に条件付きで、処理から結果への線形回帰を行う。
本稿では, 楽器, 治療, 結果の関係が非線形である場合に対処する手法として, DFIV(Deep Feature instrumental variable regression)を提案する。
- 参考スコア(独自算出の注目度): 42.085253974990046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Instrumental variable (IV) regression is a standard strategy for learning
causal relationships between confounded treatment and outcome variables from
observational data by utilizing an instrumental variable, which affects the
outcome only through the treatment. In classical IV regression, learning
proceeds in two stages: stage 1 performs linear regression from the instrument
to the treatment; and stage 2 performs linear regression from the treatment to
the outcome, conditioned on the instrument. We propose a novel method, deep
feature instrumental variable regression (DFIV), to address the case where
relations between instruments, treatments, and outcomes may be nonlinear. In
this case, deep neural nets are trained to define informative nonlinear
features on the instruments and treatments. We propose an alternating training
regime for these features to ensure good end-to-end performance when composing
stages 1 and 2, thus obtaining highly flexible feature maps in a
computationally efficient manner. DFIV outperforms recent state-of-the-art
methods on challenging IV benchmarks, including settings involving high
dimensional image data. DFIV also exhibits competitive performance in
off-policy policy evaluation for reinforcement learning, which can be
understood as an IV regression task.
- Abstract(参考訳): 計器変数(IV)回帰は、計器変数を利用した観測データから、整合処理と結果変数の因果関係を学習するための標準戦略である。
古典IVレグレッションでは、学習は2段階に進み、ステージ1は機器から治療への線形回帰を行い、ステージ2は機器に条件付きで処理から結果への線形回帰を行う。
本稿では, 楽器, 治療, 結果の関係が非線形である場合に対処する手法として, DFIV(Deep Feature instrumental variable regression)を提案する。
この場合、ディープ・ニューラルネットは、機器や治療に関する情報的非線形特徴を定義するために訓練される。
本稿では,ステージ1と2を構成する際のエンドツーエンド性能を確保するために,これらの特徴を交互に訓練する手法を提案する。
dfivは、高次元画像データを含む、ivベンチマークに挑戦する最新の最先端手法よりも優れている。
dfivはまた、iv回帰タスクとして理解できる強化学習のためのオフポリシー政策評価における競合性能を示す。
関連論文リスト
- Geometry-Aware Instrumental Variable Regression [56.16884466478886]
本稿では,データ導出情報によるデータ多様体の幾何を考慮した移動型IV推定器を提案する。
本手法のプラグイン・アンド・プレイ実装は,標準設定で関連する推定器と同等に動作する。
論文 参考訳(メタデータ) (2024-05-19T17:49:33Z) - Learning Decision Policies with Instrumental Variables through Double Machine Learning [16.842233444365764]
データリッチな設定における意思決定ポリシーの学習における一般的な問題は、オフラインデータセットにおける急激な相関である。
2段階IV回帰のバイアスを低減する非線形IV回帰法であるDML-IVを提案する。
IV回帰ベンチマークでは、最先端のIV回帰法よりも優れており、楽器の存在下で高い性能のポリシーを学ぶ。
論文 参考訳(メタデータ) (2024-05-14T10:55:04Z) - Regularized DeepIV with Model Selection [72.17508967124081]
正規化DeepIV(RDIV)回帰は最小ノルムIV解に収束することができる。
我々の手法は現在の最先端の収束率と一致している。
論文 参考訳(メタデータ) (2024-03-07T05:38:56Z) - Statistically Efficient Variance Reduction with Double Policy Estimation
for Off-Policy Evaluation in Sequence-Modeled Reinforcement Learning [53.97273491846883]
本稿では、オフラインシーケンスモデリングとオフライン強化学習をダブルポリシー推定と組み合わせたRLアルゴリズムDPEを提案する。
D4RLベンチマークを用いて,OpenAI Gymの複数のタスクで本手法を検証した。
論文 参考訳(メタデータ) (2023-08-28T20:46:07Z) - Near-optimal Offline Reinforcement Learning with Linear Representation:
Leveraging Variance Information with Pessimism [65.46524775457928]
オフライン強化学習は、オフライン/歴史的データを活用して、シーケンシャルな意思決定戦略を最適化しようとしている。
線形モデル表現を用いたオフライン強化学習の統計的限界について検討する。
論文 参考訳(メタデータ) (2022-03-11T09:00:12Z) - Jump Interval-Learning for Individualized Decision Making [21.891586204541877]
個別化区間値決定ルール(I2DR)を開発するためのジャンプインターバル学習を提案する。
単一の治療を推奨するIDRとは異なり、提案されたI2DRは個々の治療オプションの間隔を与える。
論文 参考訳(メタデータ) (2021-11-17T03:29:59Z) - Improving Inference from Simple Instruments through Compliance
Estimation [0.0]
機器変数(IV)回帰は、治療の受け取りが完全にランダムでない環境での因果治療効果を推定するために広く用いられている。
IVは、一貫した治療効果の見積もりを回復できるが、しばしばうるさい。
楽器の強度の予測可能な変動を利用して,IV推定値の効率を改善する方法について検討した。
論文 参考訳(メタデータ) (2021-08-08T20:18:34Z) - Instrumental Variable Value Iteration for Causal Offline Reinforcement
Learning [94.70124304098469]
オフライン強化学習(RL)では、事前収集された観測データのみから最適なポリシーを学習する。
我々は、遷移力学が加法非線形関数形式を認める連結マルコフ決定過程について研究する。
本稿では,CMRの一次二重改質に基づくIV-aided Value Iteration (IVVI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-19T13:01:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。