論文の概要: CauScale: Neural Causal Discovery at Scale
- arxiv url: http://arxiv.org/abs/2602.08629v1
- Date: Mon, 09 Feb 2026 13:21:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.246394
- Title: CauScale: Neural Causal Discovery at Scale
- Title(参考訳): CauScale: スケールでの神経因果発見
- Authors: Bo Peng, Sirui Chen, Jiaguo Tian, Yu Qiao, Chaochao Lu,
- Abstract要約: 因果発見は、科学AIやデータ分析などのデータ駆動分野の進展に不可欠である。
最大1000ノードのグラフに推論をスケールする、効率的な因果探索のために設計されたニューラルネットワークであるCauScaleを提示する。
- 参考スコア(独自算出の注目度): 47.41122901699058
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal discovery is essential for advancing data-driven fields such as scientific AI and data analysis, yet existing approaches face significant time- and space-efficiency bottlenecks when scaling to large graphs. To address this challenge, we present CauScale, a neural architecture designed for efficient causal discovery that scales inference to graphs with up to 1000 nodes. CauScale improves time efficiency via a reduction unit that compresses data embeddings and improves space efficiency by adopting tied attention weights to avoid maintaining axis-specific attention maps. To keep high causal discovery accuracy, CauScale adopts a two-stream design: a data stream extracts relational evidence from high-dimensional observations, while a graph stream integrates statistical graph priors and preserves key structural signals. CauScale successfully scales to 500-node graphs during training, where prior work fails due to space limitations. Across testing data with varying graph scales and causal mechanisms, CauScale achieves 99.6% mAP on in-distribution data and 84.4% on out-of-distribution data, while delivering 4-13,000 times inference speedups over prior methods. Our project page is at https://github.com/OpenCausaLab/CauScale.
- Abstract(参考訳): 因果発見は、科学AIやデータ分析などのデータ駆動分野の進展に不可欠だが、既存のアプローチでは、大きなグラフにスケールする際の時間と空間効率の重大なボトルネックに直面している。
この課題に対処するために、最大1000ノードのグラフに推論をスケールする効率的な因果探索用に設計されたニューラルネットワークであるCauScaleを紹介します。
CauScaleは、データ埋め込みを圧縮するリダクションユニットを介して、時間効率を向上し、軸固有の注意マップの維持を避けるために、連結された注意重みを採用することにより、空間効率を向上させる。
データストリームは高次元の観測から関係証拠を抽出し、グラフストリームは統計グラフの先行情報を統合し、重要な構造信号を保存する。
CauScaleはトレーニング中に500ノードグラフにスケールすることに成功した。
グラフスケールと因果機構の異なるテストデータ全体で、CauScaleは分布内データで99.6% mAP、分布外データで84.4%を達成し、従来の方法よりも4-13,000倍の推論速度を提供する。
プロジェクトページはhttps://github.com/OpenCausaLab/CauScale.comにある。
関連論文リスト
- FaST: Efficient and Effective Long-Horizon Forecasting for Large-Scale Spatial-Temporal Graphs via Mixture-of-Experts [49.9321870703948]
既存のモデルは、主に短期水平予測に焦点を当てており、悪名高い計算コストとメモリ消費に悩まされている。
本稿では,長期・大規模STG予測のためのMixture-of-Experts(MoEs)に基づく,効率的かつ効率的なフレームワークであるFaSTを提案する。
まず、計算負担を軽減するための適応型グラフエージェントアテンション機構を提案する。
第2に,従来のフィードフォワードネットワークを Gated Linear Units (GLUs) に置き換えた新しい並列MoEモジュールを提案する。
論文 参考訳(メタデータ) (2026-01-08T18:00:58Z) - Information Entropy Invariance: Enhancing Length Extrapolation in Attention Mechanisms [4.126054320109016]
本稿では,情報エントロピー不変性に基づく2つの新しいスケール温度を提案する。
まず、InfoScaleはドットプロダクトの注意のために設計されており、長さの外挿中にオリジナルのトークンに焦点を合わせている。
第2に,スケーリング(CosScale)がコサイン注意に与える影響を理論的に分析する。
論文 参考訳(メタデータ) (2025-01-15T04:32:41Z) - Adaptive Online Experimental Design for Causal Discovery [9.447864414136905]
因果発見は因果グラフに符号化された因果関係を明らかにすることを目的としている。
オンライン学習の観点から,データの介入効率に着目し,因果発見を形式化する。
グラフ分離システムから介入を適応的に選択するトラック・アンド・ストップ因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-19T13:26:33Z) - Accelerating Scalable Graph Neural Network Inference with Node-Adaptive
Propagation [80.227864832092]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションで例外的な効果を発揮している。
大規模グラフの重大化は,GNNによるリアルタイム推論において重要な課題となる。
本稿では,オンライン伝搬フレームワークと2つの新しいノード適応伝搬手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T05:03:00Z) - Graph Neural Processes for Spatio-Temporal Extrapolation [36.01312116818714]
グラフ内の周囲のコンテキストから対象地点のデータを生成する補間時間プロセスのタスクについて検討する。
既存の手法では、ニューラルネットワークのような学習に精通したモデルや、ガウスのような統計的アプローチが使用されている。
本稿では,これらの機能を同時に制御するニューラル潜在変数モデルであるスポースグラフニューラル・プロセス(STGNP)を提案する。
論文 参考訳(メタデータ) (2023-05-30T03:55:37Z) - CUTS: Neural Causal Discovery from Irregular Time-Series Data [27.06531262632836]
時系列データからの因果発見は、機械学習における中心的なタスクである。
本稿では,ニューラルグランガー因果探索アルゴリズムであるCUTSについて述べる。
提案手法は,非理想的な観測を行う実アプリケーションに因果発見を適用するための有望なステップとなる。
論文 参考訳(メタデータ) (2023-02-15T04:16:34Z) - Efficient Graph Neural Network Inference at Large Scale [54.89457550773165]
グラフニューラルネットワーク(GNN)は、幅広いアプリケーションで優れた性能を示している。
既存のスケーラブルなGNNは、線形伝搬を利用して特徴を前処理し、トレーニングと推論の手順を高速化する。
本稿では,そのトポロジ情報に基づいて各ノードに対してパーソナライズされた伝搬順序を生成する適応的伝搬順序法を提案する。
論文 参考訳(メタデータ) (2022-11-01T14:38:18Z) - Predicting traffic signals on transportation networks using
spatio-temporal correlations on graphs [56.48498624951417]
本稿では,複数の熱拡散カーネルをデータ駆動予測モデルにマージして交通信号を予測する交通伝搬モデルを提案する。
予測誤差を最小限に抑えるためにベイズ推定を用いてモデルパラメータを最適化し,2つの手法の混合率を決定する。
提案モデルでは,計算労力の少ない最先端のディープニューラルネットワークに匹敵する予測精度を示す。
論文 参考訳(メタデータ) (2021-04-27T18:17:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。