論文の概要: Sparse Additive Model Pruning for Order-Based Causal Structure Learning
- arxiv url: http://arxiv.org/abs/2602.15306v1
- Date: Tue, 17 Feb 2026 02:06:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.957501
- Title: Sparse Additive Model Pruning for Order-Based Causal Structure Learning
- Title(参考訳): 順序に基づく因果構造学習のためのスパース付加モデルプルーニング
- Authors: Kentaro Kanamori, Hirofumi Suzuki, Takuya Takagi,
- Abstract要約: 因果構造学習は、変数間の因果関係を観測データから因果指向非巡回グラフ(DAG)の形式として推定することを目的としている。
主要なフレームワークの1つは、まず基礎となるDAGのトポロジカルな順序を推定し、次に推定されたトポロジカルな順序によって誘導される完全に連結されたDAGからの急激なエッジを推定する秩序に基づくアプローチである。
本稿では,余分なエッジを直接プルーニングできる,スパース加法モデルに基づく新しいプルーニング手法を提案する。
- 参考スコア(独自算出の注目度): 4.55744151522751
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal structure learning, also known as causal discovery, aims to estimate causal relationships between variables as a form of a causal directed acyclic graph (DAG) from observational data. One of the major frameworks is the order-based approach that first estimates a topological order of the underlying DAG and then prunes spurious edges from the fully-connected DAG induced by the estimated topological order. Previous studies often focus on the former ordering step because it can dramatically reduce the search space of DAGs. In practice, the latter pruning step is equally crucial for ensuring both computational efficiency and estimation accuracy. Most existing methods employ a pruning technique based on generalized additive models and hypothesis testing, commonly known as CAM-pruning. However, this approach can be a computational bottleneck as it requires repeatedly fitting additive models for all variables. Furthermore, it may harm estimation quality due to multiple testing. To address these issues, we introduce a new pruning method based on sparse additive models, which enables direct pruning of redundant edges without relying on hypothesis testing. We propose an efficient algorithm for learning sparse additive models by combining the randomized tree embedding technique with group-wise sparse regression. Experimental results on both synthetic and real datasets demonstrated that our method is significantly faster than existing pruning methods while maintaining comparable or superior accuracy.
- Abstract(参考訳): 因果構造学習(因果構造学習、Cousal structure learning)は、変数間の因果関係を観測データから因果指向非環状グラフ(DAG)の形式として推定することを目的としている。
主要なフレームワークの1つは、まず基礎となるDAGのトポロジカルな順序を推定し、次に推定されたトポロジカルな順序によって誘導される完全に連結されたDAGからの急激なエッジを推定する秩序に基づくアプローチである。
従来の研究では、DAGの検索スペースを劇的に削減できるため、前者の順序付けに重点を置いていることが多い。
実際には、計算効率と推定精度の両立を保証するため、後者の刈り取り工程は等しく重要である。
既存の手法の多くは、一般化された加法モデルと仮説テスト(通称 CAM-pruning)に基づくプルーニング技術を採用している。
しかし、全ての変数に対して繰り返し加法モデルを適用する必要があるため、このアプローチは計算ボトルネックとなる可能性がある。
さらに、複数のテストによって評価品質が損なわれる可能性がある。
これらの問題に対処するため、我々は、仮説テストに頼らずに冗長エッジを直接プルーニングできるスパース加法モデルに基づく新しいプルーニング手法を導入する。
ランダム化木埋め込み手法とグループワイドスパース回帰を組み合わせた,スパース加法モデルの学習アルゴリズムを提案する。
合成データと実データの両方を用いた実験結果から,本手法は既存のプルーニング法よりもはるかに高速であり,精度は同等か優れていた。
関連論文リスト
- Score-informed Neural Operator for Enhancing Ordering-based Causal Discovery [12.33811209316863]
対数密度のヘッセン対角線を近似するために,Score-informed Neural Operator (SciNO)を提案する。
SciNOは、合成グラフで42.7%、実世界のデータセットで31.5%のオーダー分散を減少させる。
また,自己回帰モデルを用いた因果推論のための確率論的制御アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-08-18T06:25:41Z) - Induced Covariance for Causal Discovery in Linear Sparse Structures [55.2480439325792]
因果モデルでは、観測データから変数間の因果関係を解き明かそうとしている。
本稿では,変数が線形に疎結合な関係を示す設定のための新しい因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-02T04:01:38Z) - Diffusion Models for Causal Discovery via Topological Ordering [20.875222263955045]
emphTopological ordering approachは、グラフ空間ではなく置換を探索することによって因果発見の最適化空間を減少させる。
ANMsの場合、データログのようなemphHessianは、葉ノードを因果グラフで見つけるのに使用することができ、トポロジ的順序付けを可能にする。
ニューラルネットワークを再トレーニングすることなく、学習したヘッセンを更新する理論を導入し、サンプルのサブセットによる計算が注文の正確な近似を与えることを示す。
論文 参考訳(メタデータ) (2022-10-12T13:36:29Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - A cautionary tale on fitting decision trees to data from additive
models: generalization lower bounds [9.546094657606178]
本研究では,異なる回帰モデルに対する決定木の一般化性能について検討する。
これにより、アルゴリズムが新しいデータに一般化するために(あるいは作らない)仮定する帰納的バイアスが引き起こされる。
スパース加法モデルに適合する大規模な決定木アルゴリズムに対して、シャープな2乗誤差一般化を低い境界で証明する。
論文 参考訳(メタデータ) (2021-10-18T21:22:40Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - CASTLE: Regularization via Auxiliary Causal Graph Discovery [89.74800176981842]
因果構造学習(CASTLE)の正規化を導入し,変数間の因果関係を共同学習することでニューラルネットワークの正規化を提案する。
CASTLEは因果的隣り合いを持つ因果的DAGの特徴のみを効率的に再構成する一方、再構成ベース正規化器は全ての入力特徴を過度に再構成する。
論文 参考訳(メタデータ) (2020-09-28T09:49:38Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。