論文の概要: Honesty in Causal Forests: When It Helps and When It Hurts
- arxiv url: http://arxiv.org/abs/2506.13107v1
- Date: Mon, 16 Jun 2025 05:32:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.498135
- Title: Honesty in Causal Forests: When It Helps and When It Hurts
- Title(参考訳): 因果樹林の正直さ
- Authors: Yanfang Hou, Carlos Fernández-Loría,
- Abstract要約: 正直さは個人レベルの効果推定の精度を損なう可能性があることを示す。
我々は、誠実さは正規化の一形態であり、正規化の選択と同様に、非正規化のパフォーマンスによって導かれるべきであると主張する。
- 参考スコア(独自算出の注目度): 1.6114012813668932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal forests are increasingly used to personalize decisions based on estimated treatment effects. A distinctive modeling choice in this method is honest estimation: using separate data for splitting and for estimating effects within leaves. This practice is the default in most implementations and is widely seen as desirable for causal inference. But we show that honesty can hurt the accuracy of individual-level effect estimates. The reason is a classic bias-variance trade-off: honesty reduces variance by preventing overfitting, but increases bias by limiting the model's ability to discover and exploit meaningful heterogeneity in treatment effects. This trade-off depends on the signal-to-noise ratio (SNR): honesty helps when effect heterogeneity is hard to detect (low SNR), but hurts when the signal is strong (high SNR). In essence, honesty acts as a form of regularization, and like any regularization choice, it should be guided by out-of-sample performance, not adopted by default.
- Abstract(参考訳): 因果樹林は、推定された治療効果に基づいて決定をパーソナライズするためにますます利用されている。
この方法における特異なモデリング選択は正直な推定であり、葉の分割と葉内の効果を推定するために別々のデータを使用する。
このプラクティスは、ほとんどの実装でデフォルトであり、因果推論に望ましいと広く見なされている。
しかし、正直さは個人レベルの効果推定の精度を損なう可能性がある。
誠実さは過度な適合を防ぐことによって分散を減少させるが、モデルが治療効果において有意義な不均一性を発見・活用する能力を制限することでバイアスを増大させる。
このトレードオフは信号対雑音比(SNR)に依存するが、不均一性が検出しにくい場合(SNRが低い)、信号が強い場合(SNRが高い場合)に悪影響を及ぼす。
本質的には、誠実さは正規化の一形態として機能し、あらゆる正規化選択と同様に、デフォルトでは採用されない、サンプル外のパフォーマンスによって導かれるべきである。
関連論文リスト
- When do Random Forests work? [0.0]
ランダム林における分割方向のランダム化の有効性について検討した。
その結果,SNR が低い場合,SNR と森林がバッジを上回り,ばらつきが増大する傾向にあることがわかった。
論文 参考訳(メタデータ) (2025-04-17T11:38:17Z) - Doubly robust identification of treatment effects from multiple environments [22.228179404621482]
本稿では,基礎となる因果グラフの知識や学習を必要とせずに,不偏処理効果推定を行うアルゴリズムであるRAMENを提案する。
RAMENは二重の堅牢な識別を実現し、治療の因果親や結果の因果親が観察されるたびに、治療効果を識別することができる。
論文 参考訳(メタデータ) (2025-03-18T17:33:10Z) - Personalized Denoising Implicit Feedback for Robust Recommender System [60.719158008403376]
ユーザの個人的損失分布には,正常なインタラクションとノイズの多いインタラクションが明確に区別されていることを示す。
本稿では,ユーザのパーソナライズロス分布であるPLDを用いてDenoiseに対する再サンプリング戦略を提案する。
論文 参考訳(メタデータ) (2025-02-01T07:13:06Z) - Unintentional Unalignment: Likelihood Displacement in Direct Preference Optimization [60.176008034221404]
直接選好最適化(DPO)とその変種は、言語モデルと人間の選好の整合にますます利用されている。
以前の研究では、トレーニング中に好まれる反応の可能性が減少する傾向が見られた。
確率変位は破滅的になりうることを示し、確率質量を好ましくない反応から反対の意味の反応へとシフトさせる。
論文 参考訳(メタデータ) (2024-10-11T14:22:44Z) - Take its Essence, Discard its Dross! Debiasing for Toxic Language Detection via Counterfactual Causal Effect [23.628565620485364]
有害言語検出(TLD)における語彙バイアスを軽減するために, CCDF(Counterfactal Causal Debiasing Framework)を提案する。
CCDFは語彙バイアスの「無駄な影響」を保ち、「誤解を招く影響」を排除している
論文 参考訳(メタデータ) (2024-06-03T04:34:30Z) - Cause-Effect Inference in Location-Scale Noise Models: Maximum
Likelihood vs. Independence Testing [19.23479356810746]
因果発見の根本的な問題は因果推論であり、2つの確率変数間の正しい因果方向を学習する。
最近導入されたヘテロセダスティックな位置スケールノイズ汎関数モデル(LSNM)は、表現力と識別可能性の保証を組み合わせたものである。
雑音分布が正しく特定された場合,LSNMモデル選択が最先端の精度を実現することを示す。
論文 参考訳(メタデータ) (2023-01-26T20:48:32Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。