論文の概要: Can Transformers be Strong Treatment Effect Estimators?
- arxiv url: http://arxiv.org/abs/2202.01336v1
- Date: Wed, 2 Feb 2022 23:56:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 14:21:49.321447
- Title: Can Transformers be Strong Treatment Effect Estimators?
- Title(参考訳): トランスフォーマーは強力な治療効果を推定できるのか?
- Authors: Yi-Fan Zhang, Hanlin Zhang, Zachary C. Lipton, Li Erran Li, Eric P.
Xing
- Abstract要約: 本研究では,様々な処理効果推定問題に対処するために,トランスフォーマーアーキテクチャに基づく汎用フレームワークを開発する。
TransTEEは、幅広いベンチマークや設定に対して、パラメータ効率が向上し、競争ベースラインを著しく上回ることを示す。
- 参考スコア(独自算出の注目度): 86.32484218657166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we develop a general framework for based on Transformer
architectures to address a variety of challenging treatment effect estimation
(TEE) problems. Our methods are applicable both when covariates are tabular and
when they consist of sequences (e.g., in text), and can handle discrete,
continuous, structured, or dosage-associated treatments. While Transformers
have already emerged as dominant methods for diverse domains, including natural
language and computer vision, our experiments with Transformers as Treatment
Effect Estimators (TransTEE) demonstrate that these inductive biases are also
effective on the sorts of estimation problems and datasets that arise in
research aimed at estimating causal effects. Moreover, we propose a propensity
score network that is trained with TransTEE in an adversarial manner to promote
independence between covariates and treatments to further address selection
bias. Through extensive experiments, we show that TransTEE significantly
outperforms competitive baselines with greater parameter efficiency over a wide
range of benchmarks and settings.
- Abstract(参考訳): 本稿では,トランスフォーマーアーキテクチャに基づく多種多様な処理効果推定(TEE)問題に対処するための汎用フレームワークを開発する。
本手法は,共変数が表型である場合とシーケンス(例えばテキスト)からなる場合の両方に適用可能であり,離散的,連続的,構造化的,あるいはドセージ関連的な処理を処理できる。
トランスフォーマーはすでに、自然言語やコンピュータビジョンなどの多様な分野において支配的な手法として登場しているが、TransTEE(Process Effect Estimators)による実験では、これらの帰納バイアスが因果効果を推定するための研究で発生する推定問題やデータセットにも有効であることを示した。
さらに,共変量と治療の独立性を促進し,さらに選択バイアスに対処すべく,トランステータで訓練したプロペンサリティスコアネットワークを提案する。
広範な実験を通して、TransTEEは幅広いベンチマークや設定よりもパラメータ効率が良く、競争ベースラインを著しく上回ることを示す。
関連論文リスト
- Higher-Order Causal Message Passing for Experimentation with Complex Interference [6.092214762701847]
本研究では、因果的メッセージパッシングに基づく新しい推定器のクラスを導入し、広範で未知な干渉のある設定に特化して設計する。
我々の推定器は、サンプルの平均値と時間とともに単位結果と処理のばらつきから情報を抽出し、観測データの効率的な利用を可能にする。
論文 参考訳(メタデータ) (2024-11-01T18:00:51Z) - Adaptive Instrument Design for Indirect Experiments [48.815194906471405]
RCTとは異なり、間接的な実験は条件付き機器変数を利用して治療効果を推定する。
本稿では,データ収集ポリシーを適応的に設計することで,間接実験におけるサンプル効率の向上に向けた最初のステップについて述べる。
我々の主な貢献は、影響関数を利用して最適なデータ収集ポリシーを探索する実用的な計算手順である。
論文 参考訳(メタデータ) (2023-12-05T02:38:04Z) - How inter-rater variability relates to aleatoric and epistemic
uncertainty: a case study with deep learning-based paraspinal muscle
segmentation [1.9624082208594296]
本研究は, 層間変動が学習アルゴリズムの信頼性に与える影響について検討する。
本研究は,ラベル融合戦略とDLモデルの選択による,ラター間の変動性と不確実性の間の相互作用を明らかにする。
論文 参考訳(メタデータ) (2023-08-14T06:40:20Z) - Optimizing Non-Autoregressive Transformers with Contrastive Learning [74.46714706658517]
非自己回帰変換器(NAT)は、逐次順序ではなく全ての単語を同時に予測することにより、自動回帰変換器(AT)の推論遅延を低減する。
本稿では,データ分布ではなく,モデル分布からのサンプリングによるモダリティ学習の容易化を提案する。
論文 参考訳(メタデータ) (2023-05-23T04:20:13Z) - Transfer Learning on Heterogeneous Feature Spaces for Treatment Effects
Estimation [103.55894890759376]
本稿では,不均一な特徴空間を扱うために表現学習を利用するビルディングブロックを紹介する。
本稿では,これらのビルディングブロックを用いて,標準CATE学習者の伝達学習の等価性を回復する方法を示す。
論文 参考訳(メタデータ) (2022-10-08T16:41:02Z) - CETransformer: Casual Effect Estimation via Transformer Based
Representation Learning [17.622007687796756]
データ駆動因果効果推定は、選択バイアスと反事実の欠如という2つの大きな課題に直面している。
これら2つの問題に対処するため、既存のアプローチのほとんどは、バランスの取れた表現を学ぶことで選択バイアスを減らす傾向にある。
本稿では,CETransformerモデルを用いて,変換器を用いた表現学習によるカジュアルエフェクト推定を提案する。
論文 参考訳(メタデータ) (2021-07-19T09:39:57Z) - On Inductive Biases for Heterogeneous Treatment Effect Estimation [91.3755431537592]
我々は、異なる治療下で、個人の潜在的成果(PO)の構造的類似性を利用する方法について検討する。
この問題を克服するために、エンドツーエンドの学習戦略を3つ比較する。
論文 参考訳(メタデータ) (2021-06-07T16:30:46Z) - Translational Equivariance in Kernelizable Attention [3.236198583140341]
本稿では,カーネル可能な注意に基づく効率的なトランスフォーマにおいて,翻訳等価性を実現する方法を示す。
実験では,提案手法が入力画像のシフトに対する演奏者のロバスト性を大幅に改善することを強調する。
論文 参考訳(メタデータ) (2021-02-15T17:14:15Z) - Applying the Transformer to Character-level Transduction [68.91664610425114]
この変換器は、様々な単語レベルのNLPタスクにおいて、繰り返しニューラルネットワークに基づくシーケンス・ツー・シーケンスモデルより優れていることが示されている。
十分なバッチサイズで、トランスフォーマーは文字レベルタスクの繰り返しモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-20T17:25:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。