論文の概要: Efficient Causal Structure Learning via Modular Subgraph Integration
- arxiv url: http://arxiv.org/abs/2601.21014v1
- Date: Wed, 28 Jan 2026 20:13:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.420524
- Title: Efficient Causal Structure Learning via Modular Subgraph Integration
- Title(参考訳): モジュール部分グラフ統合による効率的な因果構造学習
- Authors: Haixiang Sun, Pengchao Tian, Zihan Zhou, Jielei Zhang, Peiyi Li, Andrew L. Liu,
- Abstract要約: 本稿では,グローバル因果構造学習問題をブランケットに基づく局所部分グラフに分解するモジュラーフレームワークであるVISTAを紹介する。
このフレームワークはモデルに依存しないため、ベースラーナーの帰納的バイアスに関する仮定は含まず、任意のデータ設定と互換性があり、並列化を完全にサポートしている。
合成データセットと実データセットの両方に対する大規模な実験は、常にVISTAの有効性を実証している。
- 参考スコア(独自算出の注目度): 4.803851977437455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning causal structures from observational data remains a fundamental yet computationally intensive task, particularly in high-dimensional settings where existing methods face challenges such as the super-exponential growth of the search space and increasing computational demands. To address this, we introduce VISTA (Voting-based Integration of Subgraph Topologies for Acyclicity), a modular framework that decomposes the global causal structure learning problem into local subgraphs based on Markov Blankets. The global integration is achieved through a weighted voting mechanism that penalizes low-support edges via exponential decay, filters unreliable ones with an adaptive threshold, and ensures acyclicity using a Feedback Arc Set (FAS) algorithm. The framework is model-agnostic, imposing no assumptions on the inductive biases of base learners, is compatible with arbitrary data settings without requiring specific structural forms, and fully supports parallelization. We also theoretically establish finite-sample error bounds for VISTA, and prove its asymptotic consistency under mild conditions. Extensive experiments on both synthetic and real datasets consistently demonstrate the effectiveness of VISTA, yielding notable improvements in both accuracy and efficiency over a wide range of base learners.
- Abstract(参考訳): 観測データから因果構造を学習することは、特に既存の手法が探索空間の超指数的成長や計算要求の増加といった課題に直面している高次元環境では、基本的な計算集約的な課題である。
これを解決するために,マルコフ・ブランケットに基づく局所部分グラフに大域因果構造学習問題を分解するモジュラーフレームワークであるVISTA(Voting-based Subgraph Topologies for Acyclicity)を紹介する。
グローバルな統合は、指数的崩壊によって低支持エッジをペナライズする重み付き投票機構によって達成され、信頼できないエッジを適応しきい値でフィルタリングし、フィードバックアークセット(FAS)アルゴリズムを用いて非循環性を保証する。
このフレームワークはモデルに依存しず、ベース学習者の帰納バイアスを仮定せず、特定の構造形式を必要とせず、任意のデータ設定と互換性があり、並列化を完全にサポートしている。
また、理論上はVISTAの有限サンプル誤差境界を確立し、その漸近的一貫性を穏やかな条件下で証明する。
合成データセットと実データセットの両方に対する大規模な実験は、VISTAの有効性を一貫して証明し、幅広い基礎学習者に対して精度と効率の両方に顕著な改善をもたらす。
関連論文リスト
- Efficient Differentiable Causal Discovery via Reliable Super-Structure Learning [51.20606796019663]
本稿では,新たな因果発見パイプラインであるALVGLを提案する。
ALVGLはスパース分解とローランク分解を用いてデータの精度行列を学習する。
ALVGLは最先端の精度を達成するだけでなく、最適化効率を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2026-01-09T02:18:59Z) - Interpretability-Guided Bi-objective Optimization: Aligning Accuracy and Explainability [0.0]
IGBOがDAG(Directed Acyclic Graph)として特徴重要階層を符号化
中心極限定理に基づくDAGの構成は、エッジ方向の決定の統計的妥当性を保証する。
DAG制約を最小限の精度で強制するIGBOの有効性は、標準正規化基準よりも優れていた。
論文 参考訳(メタデータ) (2026-01-02T11:32:00Z) - Closing the Generalization Gap in Parameter-efficient Federated Edge Learning [43.00634399799955]
フェデレーションエッジラーニング(FEEL)は人工知能(AI)のための有望な基盤を提供する
限定的で異種なローカルデータセット、およびリソース制限されたデプロイメントは、モデル一般化とリソース利用の両方を著しく低下させる。
本稿では,モデル最小化と一般化選択を併用して,このような課題に対処するフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-28T15:34:09Z) - Unlocking Symbol-Level Precoding Efficiency Through Tensor Equivariant Neural Network [84.22115118596741]
シンボルレベルのプリコーディングにおいて,推論の複雑さの低いエンドツーエンドディープラーニング(DL)フレームワークを提案する。
提案手法は,従来の手法よりも約80倍の高速化を実現しつつ,SLPの大幅な性能向上を達成できることを示す。
論文 参考訳(メタデータ) (2025-10-02T15:15:50Z) - Optimal Transport for Structure Learning Under Missing Data [31.240965564055138]
そこで本稿では,最適なトランスポートに基づくデータから因果構造を学習するためのスコアベースアルゴリズムを提案する。
我々のフレームワークは,ほとんどのシミュレーションや実データ設定において競合する手法よりも,真の因果構造を効果的に回復することが示されている。
論文 参考訳(メタデータ) (2024-02-23T10:49:04Z) - Discovering Dynamic Causal Space for DAG Structure Learning [64.763763417533]
本稿では,DAG構造学習のための動的因果空間であるCASPERを提案する。
グラフ構造をスコア関数に統合し、因果空間における新しい尺度として、推定真理DAGと基底真理DAGの因果距離を忠実に反映する。
論文 参考訳(メタデータ) (2023-06-05T12:20:40Z) - On the Sparse DAG Structure Learning Based on Adaptive Lasso [39.31370830038554]
適応NOTEARS[30]という,事前定義されたしきい値のないデータ駆動型DAG構造学習手法を開発した。
適応型NOTEARSは特定の条件下でのオラクル特性を享受できることを示し, シミュレーションの結果, エッジのギャップをゼロに設定することなく, 提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-09-07T05:47:59Z) - Deep Equilibrium Assisted Block Sparse Coding of Inter-dependent
Signals: Application to Hyperspectral Imaging [71.57324258813675]
相互依存信号のデータセットは、列が強い依存を示す行列として定義される。
ニューラルネットワークは、事前に構造として機能し、基礎となる信号相互依存性を明らかにするために使用される。
ディープ・アンローリングとディープ・平衡に基づくアルゴリズムが開発され、高度に解釈可能で簡潔なディープ・ラーニング・ベース・アーキテクチャを形成する。
論文 参考訳(メタデータ) (2022-03-29T21:00:39Z) - Distributionally Robust Fair Principal Components via Geodesic Descents [16.440434996206623]
大学入学、医療、信用承認などのその後の領域では、学習予測の公正性や堅牢性といった新たな基準を考慮に入れることが不可欠である。
本稿では,主成分分析のための分布的ロバストな最適化問題を提案する。
実世界のデータセットに対する実験結果から,提案手法が最先端のベースラインに対して有益であることを示す。
論文 参考訳(メタデータ) (2022-02-07T11:08:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。