論文の概要: Learning the Ranking of Causal Effects with Confounded Data
- arxiv url: http://arxiv.org/abs/2206.12532v1
- Date: Sat, 25 Jun 2022 02:15:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-03 08:42:48.492217
- Title: Learning the Ranking of Causal Effects with Confounded Data
- Title(参考訳): 共起データによる因果効果のランク付けの学習
- Authors: Carlos Fern\'andez-Lor\'ia and Jorge Lor\'ia
- Abstract要約: ランキング保存仮定(RPA)という,歴史データに関する新たな制約の少ない仮定を提案する。
RPAは、オンライン広告や顧客維持といった一般的なビジネスアプリケーションを含む、さまざまなシナリオで適合できることを示す。
- 参考スコア(独自算出の注目度): 11.859913430860335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision makers often want to identify the individuals for whom some
intervention or treatment will be most effective in order to decide who to
treat. In such cases, decision makers would ideally like to rank potential
recipients of the treatment according to their individual causal effects.
However, the historical data available to estimate the causal effects could be
confounded, and as a result, accurately estimating the effects could be
impossible. We propose a new and less restrictive assumption about historical
data, called the ranking preservation assumption (RPA), under which the ranking
of the individual effects can be consistently estimated even if the effects
themselves cannot be accurately estimated. Importantly, we find that
confounding can be helpful for the estimation of the causal-effect ranking when
the confounding bias is larger for individuals with larger causal effects, and
that even when this is not the case, any detrimental impact of confounding can
be corrected with larger training data when the RPA is met. We then
analytically show that the RPA can be met in a variety of scenarios, including
common business applications such as online advertising and customer retention.
We support this finding with an empirical example in the context of online
advertising. The example also shows how to evaluate the decision making of a
confounded model in practice. The main takeaway is that what might
traditionally be considered "good" data for causal estimation (i.e.,
unconfounded data) may not be necessary to make good causal decisions, so
treatment assignment methods may work better than we give them credit for in
the presence of confounding.
- Abstract(参考訳): 意思決定者はしばしば、介入や治療が最も効果的である個人を特定し、誰が治療するかを決定する。
このような場合、意思決定者は、それぞれの因果効果に応じて治療の潜在的受給者をランク付けするのが理想である。
しかし、因果効果を推定できる歴史的データは整理され、その結果、正確な効果を推定することは不可能である。
本稿では,その効果自体を正確に推定できない場合でも,個々の効果のランキングを一貫して推定できる階層保存前提(rpa)という,歴史データに関する新たな,より限定的な仮定を提案する。
以上より, 因果効果が大きい個人に対して, 共起バイアスが大きい場合, 因果効果ランキングの推定に共起が有効であること, rpaが満たした時点では, 共起の有害影響を, より大きなトレーニングデータで補正することができること, が重要である。
次に、オンライン広告や顧客維持といった一般的なビジネスアプリケーションなど、さまざまなシナリオでRPAが適合できることを分析的に示す。
我々はこの発見をオンライン広告の文脈で実証的な例で支持する。
この例は、実際に構築されたモデルの意思決定を評価する方法も示しています。
主な特徴は、因果推定のために伝統的に「良い」データと見なされるもの(すなわち、未確立のデータ)は、適切な因果決定を行うのに必要ではないため、処置の割り当て方法が共起の存在下でのクレジットよりもうまく機能する可能性があることである。
関連論文リスト
- Inferring Causal Effects Under Heterogeneous Peer Influence [12.533920403498453]
ネットワークにおける因果推論は、ユニットの結果がピアの治療や結果に影響された場合に発生する干渉を考慮に入れなければならない。
本稿では,ネットワーク構造,干渉条件,因果依存性に関する様々な仮定を捉えることができるネットワークの構造因果モデルを提案する。
因果モデルを用いて、潜在的な異種コンテキストを見つけ、個別の因果効果を推定する新しいグラフニューラルネットワークに基づく推定器を提案する。
論文 参考訳(メタデータ) (2023-05-27T13:57:26Z) - Linking a predictive model to causal effect estimation [21.869233469885856]
本稿では、まず、ある事例における結果に対する特徴(治療としての)の因果効果を推定する挑戦に取り組む。
理論的結果は、予測モデルを因果効果推定に自然に関連付け、予測モデルが因果的解釈可能であることを示唆する。
本稿では, 種々の予測モデルを用いて, 条件を満たす場合, 特徴の因果効果を, 最先端の因果効果推定法と同じくらい正確に推定できることを実証する。
論文 参考訳(メタデータ) (2023-04-10T13:08:16Z) - Feature selection in stratification estimators of causal effects:
lessons from potential outcomes, causal diagrams, and structural equations [0.456877715768796]
このアプローチは、多くの広く興奮された結果の根底にある基本的な統計現象を明らかにする。
本発表は,因果効果推定研究のための3つの方法論的伝統からの知見を組み合わせたものである。
論文 参考訳(メタデータ) (2022-09-23T04:20:50Z) - An evaluation framework for comparing causal inference models [3.1372269816123994]
提案手法を用いて、いくつかの最先端因果効果推定モデルを比較した。
このアプローチの背後にある主な動機は、少数のインスタンスやシミュレーションがベンチマークプロセスに与える影響を取り除くことである。
論文 参考訳(メタデータ) (2022-08-31T21:04:20Z) - Causal Intervention Improves Implicit Sentiment Analysis [67.43379729099121]
インスツルメンタル・バリアブル(ISAIV)を用いたインシシット・センシティメント分析のための因果介入モデルを提案する。
まず、因果的視点から感情分析をレビューし、このタスクに存在する共同設立者を分析する。
そこで本研究では,文章と感情の因果関係を解消し,純粋因果関係を抽出するインストゥルメンタル変数を提案する。
論文 参考訳(メタデータ) (2022-08-19T13:17:57Z) - Counterfactual Reasoning for Out-of-distribution Multimodal Sentiment
Analysis [56.84237932819403]
本稿では,OODの高次一般化に対するテキストモダリティの悪影響を推定・緩和することを目的とする。
そこで本研究では,マルチモーダル感情分析のためのモデルに依存しない反現実的フレームワークを考案した。
論文 参考訳(メタデータ) (2022-07-24T03:57:40Z) - Active Bayesian Causal Inference [72.70593653185078]
因果発見と推論を統合するための完全ベイズ能動学習フレームワークであるアクティブベイズ因果推論(ABCI)を提案する。
ABCIは因果関係のモデルと関心のクエリを共同で推論する。
我々のアプローチは、完全な因果グラフの学習のみに焦点を当てた、いくつかのベースラインよりも、よりデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-06-04T22:38:57Z) - Causal Effect Estimation using Variational Information Bottleneck [19.6760527269791]
因果推論とは、介入が適用されるときの因果関係における因果効果を推定することである。
変分情報ボトルネック(CEVIB)を用いて因果効果を推定する手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T13:46:12Z) - Deconfounding Scores: Feature Representations for Causal Effect
Estimation with Weak Overlap [140.98628848491146]
推定対象の偏りを伴わずに高い重なりを生じさせる,デコンファウンディングスコアを導入する。
分離スコアは観測データで識別可能なゼロ共分散条件を満たすことを示す。
特に,この手法が標準正規化の魅力的な代替となることを示す。
論文 参考訳(メタデータ) (2021-04-12T18:50:11Z) - Learning Causal Semantic Representation for Out-of-Distribution
Prediction [125.38836464226092]
因果推論に基づく因果意味生成モデル(CSG)を提案し,その2つの要因を別々にモデル化する。
CSGはトレーニングデータに適合させることで意味的因子を識別できることを示し、この意味的識別はOOD一般化誤差の有界性を保証する。
論文 参考訳(メタデータ) (2020-11-03T13:16:05Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。