論文の概要: LILI clustering algorithm: Limit Inferior Leaf Interval Integrated into Causal Forest for Causal Interference
- arxiv url: http://arxiv.org/abs/2507.03271v1
- Date: Fri, 04 Jul 2025 03:04:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.647314
- Title: LILI clustering algorithm: Limit Inferior Leaf Interval Integrated into Causal Forest for Causal Interference
- Title(参考訳): LILIクラスタリングアルゴリズム:因果干渉のための因果林に統合された限界下葉インターバル
- Authors: Yiran Dong, Di Fan, Chuanhou Gao,
- Abstract要約: 因果林法は因果推論において強力なツールである。
本稿では,LILI(Limit Inferior Leaf Interval)クラスタリングアルゴリズムを用いて,因果木間の接続を確立する手法を提案する。
- 参考スコア(独自算出の注目度): 1.4875602190483512
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal forest methods are powerful tools in causal inference. Similar to traditional random forest in machine learning, causal forest independently considers each causal tree. However, this independence consideration increases the likelihood that classification errors in one tree are repeated in others, potentially leading to significant bias in causal e ect estimation. In this paper, we propose a novel approach that establishes connections between causal trees through the Limit Inferior Leaf Interval (LILI) clustering algorithm. LILIs are constructed based on the leaves of all causal trees, emphasizing the similarity of dataset confounders. When two instances with di erent treatments are grouped into the same leaf across a su cient number of causal trees, they are treated as counterfactual outcomes of each other. Through this clustering mechanism, LILI clustering reduces bias present in traditional causal tree methods and enhances the prediction accuracy for the average treatment e ect (ATE). By integrating LILIs into a causal forest, we develop an e cient causal inference method. Moreover, we explore several key properties of LILI by relating it to the concepts of limit inferior and limit superior in the set theory. Theoretical analysis rigorously proves the convergence of the estimated ATE using LILI clustering. Empirically, extensive comparative experiments demonstrate the superior performance of LILI clustering.
- Abstract(参考訳): 因果林法は因果推論において強力なツールである。
機械学習における伝統的なランダムな森林と同様に、因果樹は独立してそれぞれの因果樹を考慮している。
しかし、この独立性の考慮は、ある木の分類誤差が他の木で繰り返される可能性を高め、因果推定の重大なバイアスをもたらす可能性がある。
本稿では,Limit Inferior Leaf Interval(LILI)クラスタリングアルゴリズムを用いて,因果木間の接続を確立する手法を提案する。
LILIはすべての因果木の葉に基づいて構築されており、データセットの共同創設者の類似性を強調している。
希薄な処理を施した2つの事例を、非常に多くの因果樹にまたがって同じ葉に分けた場合、これらは互いに反現実的な結果として扱われる。
このクラスタリング機構により、LILIクラスタリングは従来の因果木法におけるバイアスを低減し、平均処理e ect(ATE)の予測精度を高める。
LILIsを因果樹林に組み込むことにより,e cient causal inference法を開発した。
さらに、LILIのいくつかの重要な性質を、集合論において劣る極限の概念と、より優れた極限の概念に関連付けることによって探求する。
理論的解析は、LILIクラスタリングを用いて推定されたATEの収束を厳密に証明する。
実験的な比較実験はLILIクラスタリングの優れた性能を示す。
関連論文リスト
- Causal Discovery and Classification Using Lempel-Ziv Complexity [2.7309692684728617]
本稿では,Lempel-Ziv複雑性から導かれる新しい因果度尺度と距離計量を導入する。
因果決定木と距離決定木の有効性を評価する。
論文 参考訳(メタデータ) (2024-11-04T08:24:56Z) - Distilling interpretable causal trees from causal forests [0.0]
条件平均処理効果の高次元分布は、正確な個々のレベルの推定を与える可能性がある。
本論文は, 原生林から1本, 解釈可能な因果樹を蒸留する方法である, 希釈因果樹を提案する。
論文 参考訳(メタデータ) (2024-08-02T05:48:15Z) - Why do Random Forests Work? Understanding Tree Ensembles as
Self-Regularizing Adaptive Smoothers [68.76846801719095]
統計学で広く普及している偏りと分散還元に対する現在の高次二分法は、木のアンサンブルを理解するには不十分である、と我々は主張する。
森林は、通常暗黙的に絡み合っている3つの異なるメカニズムによって、樹木を改良できることを示す。
論文 参考訳(メタデータ) (2024-02-02T15:36:43Z) - Causal Temporal Regime Structure Learning [49.77103348208835]
本稿では,DAG(Directed Acyclic Graph)を並列に学習する新しい手法であるCASTORを提案する。
我々は我々の枠組みの中で体制とDAGの識別可能性を確立する。
実験により、CASTORは既存の因果発見モデルより一貫して優れていることが示された。
論文 参考訳(メタデータ) (2023-11-02T17:26:49Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Hierarchical Graph Neural Networks for Causal Discovery and Root Cause
Localization [52.72490784720227]
REASONはTopological Causal DiscoveryとPersonal Causal Discoveryで構成されている。
Topological Causal Discoveryコンポーネントは、根本原因を辿るために断層伝播をモデル化することを目的としている。
個々の因果発見コンポーネントは、単一のシステムエンティティの突然の変化パターンのキャプチャに重点を置いている。
論文 参考訳(メタデータ) (2023-02-03T20:17:45Z) - Modelling hetegeneous treatment effects by quantitle local polynomial
decision tree and forest [0.0]
本稿では,2001年のブレイマンの無作為林木(RFT)とWagerらの因果樹に基づいて,非パラメトリック問題のパラメータ化を行う。
我々は,定式規則による定量分類と局所標本の古典的推定を組み合わせた決定木を提案し,この決定木をQLPRT(quantile local linear causal tree)とQLPRF( Forest)と呼ぶ。
論文 参考訳(メタデータ) (2021-11-30T12:02:16Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z) - Causal Expectation-Maximisation [70.45873402967297]
ポリツリーグラフを特徴とするモデルにおいても因果推論はNPハードであることを示す。
我々は因果EMアルゴリズムを導入し、分類的表現変数のデータから潜伏変数の不確かさを再構築する。
我々は、反事実境界が構造方程式の知識なしにしばしば計算できるというトレンドのアイデアには、目立たずの制限があるように思える。
論文 参考訳(メタデータ) (2020-11-04T10:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。