論文の概要: Learning causal graphs using variable grouping according to ancestral relationship
- arxiv url: http://arxiv.org/abs/2403.14125v1
- Date: Thu, 21 Mar 2024 04:42:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 15:27:06.130641
- Title: Learning causal graphs using variable grouping according to ancestral relationship
- Title(参考訳): 祖先関係に基づく可変グルーピングを用いた因果グラフの学習
- Authors: Ming Cai, Hisayuki Hara,
- Abstract要約: サンプルサイズが変数数に対して小さい場合には,既存手法を用いた因果グラフの推定精度が低下する。
サンプルサイズが変数の数より小さい場合、いくつかのメソッドは実現不可能である。
これらの問題を回避すべく、ある研究者は分割・対数アプローチを用いた因果構造学習アルゴリズムを提案した。
- 参考スコア(独自算出の注目度): 7.126300090990439
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several causal discovery algorithms have been proposed. However, when the sample size is small relative to the number of variables, the accuracy of estimating causal graphs using existing methods decreases. And some methods are not feasible when the sample size is smaller than the number of variables. To circumvent these problems, some researchers proposed causal structure learning algorithms using divide-and-conquer approaches. For learning the entire causal graph, the approaches first split variables into several subsets according to the conditional independence relationships among the variables, then apply a conventional causal discovery algorithm to each subset and merge the estimated results. Since the divide-and-conquer approach reduces the number of variables to which a causal structure learning algorithm is applied, it is expected to improve the estimation accuracy of causal graphs, especially when the sample size is small relative to the number of variables and the model is sparse. However, existing methods are either computationally expensive or do not provide sufficient accuracy when the sample size is small. This paper proposes a new algorithm for grouping variables based the ancestral relationships among the variables, under the LiNGAM assumption, where the causal relationships are linear, and the mutually independent noise are distributed as continuous non-Gaussian distributions. We call the proposed algorithm CAG. The time complexity of the ancestor finding in CAG is shown to be cubic to the number of variables. Extensive computer experiments confirm that the proposed method outperforms the original DirectLiNGAM without grouping variables and other divide-and-conquer approaches not only in estimation accuracy but also in computation time when the sample size is small relative to the number of variables and the model is sparse.
- Abstract(参考訳): いくつかの因果発見アルゴリズムが提案されている。
しかし,変数数に対してサンプルサイズが小さい場合には,既存手法を用いた因果グラフの推定精度が低下する。
サンプルサイズが変数の数よりも小さい場合、いくつかのメソッドは実現不可能です。
これらの問題を回避すべく、ある研究者は分割・対数アプローチを用いた因果構造学習アルゴリズムを提案した。
因果グラフ全体を学習するために、まず変数を変数間の条件独立関係に従って複数のサブセットに分割し、各サブセットに従来の因果探索アルゴリズムを適用し、推定結果をマージする。
因果構造学習アルゴリズムを適用した変数数を削減するため,特に変数数に対してサンプルサイズが小さい場合,因果構造学習アルゴリズムの精度が向上することが期待される。
しかし、既存の手法は計算コストがかかるか、サンプルサイズが小さい場合に十分な精度が得られない。
本稿では, 因果関係が線形であり, 互いに独立なノイズが連続的な非ガウス分布として分布するLiNGAM仮定の下で, 変数間の祖先関係に基づいて変数をグループ化する新しいアルゴリズムを提案する。
提案アルゴリズムをCAGと呼ぶ。
CAGにおける祖先発見の時間的複雑さは、変数の数に対して立方体であることが示されている。
提案手法は,推定精度だけでなく,サンプルサイズが変数数に対して小さく,モデルが疎い場合の計算時間においても,従来のDirectLiNGAMよりも優れていることを確認した。
関連論文リスト
- A Fourier Approach to the Parameter Estimation Problem for One-dimensional Gaussian Mixture Models [21.436254507839738]
一次元ガウス混合モデルにおけるパラメータ推定のための新しいアルゴリズムを提案する。
本アルゴリズムは,EMアルゴリズムと比較して,確率,AIC,BICのスコアがよいことを示す。
論文 参考訳(メタデータ) (2024-04-19T03:53:50Z) - Deep Ensembles Meets Quantile Regression: Uncertainty-aware Imputation
for Time Series [49.992908221544624]
時系列データは、しばしば多くの欠落した値を示し、これは時系列計算タスクである。
従来の深層学習法は時系列計算に有効であることが示されている。
本研究では,不確実性のある高精度な計算を行う非生成時系列計算法を提案する。
論文 参考訳(メタデータ) (2023-12-03T05:52:30Z) - Learning to Bound Counterfactual Inference in Structural Causal Models
from Observational and Randomised Data [64.96984404868411]
我々は、従来のEMベースのアルゴリズムを拡張するための全体的なデータの特徴付けを導出する。
新しいアルゴリズムは、そのような混合データソースからモデルパラメータの(不特定性)領域を近似することを学ぶ。
反実的な結果に間隔近似を与え、それが特定可能な場合の点に崩壊する。
論文 参考訳(メタデータ) (2022-12-06T12:42:11Z) - Constraint-Based Causal Structure Learning from Undersampled Graphs [1.8448103154557947]
時系列データから因果学習アルゴリズムによって推定される図形構造は、非常に誤解を招く因果情報を提供することができる。
制約プログラミングと問題構造に関する理論的知見と、許容因果関係に関する事前情報を組み合わせる。
結果のシステムは、確率変数のかなり大きな集合(>100)までスケールし、時間スケールの差の正確な知識を必要とせず、エッジの誤同定とパラメトリック接続強度をサポートし、多くの可能な解の最適選択を提供する。
論文 参考訳(メタデータ) (2022-05-18T22:38:57Z) - Causal Order Identification to Address Confounding: Binary Variables [4.56877715768796]
本稿では,線形非ガウス非巡回モデル(LiNGAM)の拡張について考察する。
LiNGAMは、変数が雑音を含む一連の線形方程式で表されるとき、データセットから変数間の因果順序を決定する。
論文 参考訳(メタデータ) (2021-08-10T22:09:43Z) - Improving Efficiency and Accuracy of Causal Discovery Using a
Hierarchical Wrapper [7.570246812206772]
観測データからの因果発見は、科学の多くの分野において重要なツールである。
大規模なサンプルリミットでは、音と完全な因果探索アルゴリズムが導入されている。
しかし、これらのアルゴリズムが使用する統計的テストのパワーを制限するのは、有限のトレーニングデータのみである。
論文 参考訳(メタデータ) (2021-07-11T09:24:49Z) - Improved Algorithms for Agnostic Pool-based Active Classification [20.12178157010804]
プールに依存しない環境でのバイナリ分類のためのアクティブラーニングを検討する。
我々のアルゴリズムは、画像分類データセットにおけるアートアクティブな学習アルゴリズムの状況よりも優れている。
論文 参考訳(メタデータ) (2021-05-13T18:24:30Z) - Finding Geometric Models by Clustering in the Consensus Space [61.65661010039768]
本稿では,未知数の幾何学的モデル,例えばホモグラフィーを求めるアルゴリズムを提案する。
複数の幾何モデルを用いることで精度が向上するアプリケーションをいくつか提示する。
これには、複数の一般化されたホモグラフからのポーズ推定、高速移動物体の軌道推定が含まれる。
論文 参考訳(メタデータ) (2021-03-25T14:35:07Z) - Generalized Matrix Factorization: efficient algorithms for fitting
generalized linear latent variable models to large data arrays [62.997667081978825]
一般化線形潜在変数モデル(GLLVM)は、そのような因子モデルを非ガウス応答に一般化する。
GLLVMのモデルパラメータを推定する現在のアルゴリズムは、集約的な計算を必要とし、大規模なデータセットにスケールしない。
本稿では,GLLVMを高次元データセットに適用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-06T04:28:19Z) - Interpolation and Learning with Scale Dependent Kernels [91.41836461193488]
非パラメトリックリッジレス最小二乗の学習特性について検討する。
スケール依存カーネルで定義される推定器の一般的な場合を考える。
論文 参考訳(メタデータ) (2020-06-17T16:43:37Z) - Instability, Computational Efficiency and Statistical Accuracy [101.32305022521024]
我々は,人口レベルでのアルゴリズムの決定論的収束率と,$n$サンプルに基づく経験的対象に適用した場合の(不安定性)の間の相互作用に基づいて,統計的精度を得るフレームワークを開発する。
本稿では,ガウス混合推定,非線形回帰モデル,情報的非応答モデルなど,いくつかの具体的なモデルに対する一般結果の応用について述べる。
論文 参考訳(メタデータ) (2020-05-22T22:30:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。