論文の概要: Distributed Learning of Generalized Linear Causal Networks
- arxiv url: http://arxiv.org/abs/2201.09194v1
- Date: Sun, 23 Jan 2022 06:33:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 17:48:18.170365
- Title: Distributed Learning of Generalized Linear Causal Networks
- Title(参考訳): 一般化線形因果ネットワークの分散学習
- Authors: Qiaoling Ye, Arash A. Amini and Qing Zhou
- Abstract要約: 正規化確率スコア(DARLS)に基づく分散焼鈍という構造学習手法を提案する。
DARLSは、そのような理論的保証で因果グラフを学習する最初の方法である。
タンパク質-DNA結合ネットワークを分散ChIPシーケンシングデータでモデル化する現実世界のアプリケーションにおいて、DARLSは他の方法よりも高い予測力を示す。
- 参考スコア(独自算出の注目度): 19.381934612280993
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the task of learning causal structures from data stored on
multiple machines, and propose a novel structure learning method called
distributed annealing on regularized likelihood score (DARLS) to solve this
problem. We model causal structures by a directed acyclic graph that is
parameterized with generalized linear models, so that our method is applicable
to various types of data. To obtain a high-scoring causal graph, DARLS
simulates an annealing process to search over the space of topological sorts,
where the optimal graphical structure compatible with a sort is found by a
distributed optimization method. This distributed optimization relies on
multiple rounds of communication between local and central machines to estimate
the optimal structure. We establish its convergence to a global optimizer of
the overall score that is computed on all data across local machines. To the
best of our knowledge, DARLS is the first distributed method for learning
causal graphs with such theoretical guarantees. Through extensive simulation
studies, DARLS has shown competing performance against existing methods on
distributed data, and achieved comparable structure learning accuracy and
test-data likelihood with competing methods applied to pooled data across all
local machines. In a real-world application for modeling protein-DNA binding
networks with distributed ChIP-Sequencing data, DARLS also exhibits higher
predictive power than other methods, demonstrating a great advantage in
estimating causal networks from distributed data.
- Abstract(参考訳): 本稿では,複数のマシンに格納されたデータから因果構造を学習するタスクについて考察し,正規化度スコア(DARLS)に基づく分散アニーリングと呼ばれる新しい構造学習手法を提案する。
我々は、一般化線形モデルでパラメータ化された有向非巡回グラフを用いて因果構造をモデル化し、様々な種類のデータに適用できる。
高スケーリング因果グラフを得るため、darlsは、分散最適化法によりソートと互換性のある最適なグラフィカル構造が見つかる位相的ソート空間を探索するためのアニーリングプロセスをシミュレートする。
この分散最適化は、最適構造を推定するために、ローカルマシンと中央マシン間の複数ラウンドの通信に依存する。
ローカルマシンにまたがるすべてのデータで計算される総合スコアのグローバルオプティマイザへの収束を確立する。
我々の知る限り、DARLSはそのような理論的保証のある因果グラフを学習するための最初の分散手法である。
大規模なシミュレーション研究を通じて、DARLSは分散データ上の既存の手法と競合する性能を示し、全てのローカルマシンにまたがるプールデータに適用された手法と同等の構造学習精度とテストデータ確率を達成した。
DARLSは、タンパク質-DNA結合ネットワークを分散ChIPシーケンスデータでモデル化する現実世界のアプリケーションにおいて、他の方法よりも高い予測力を示し、分散データから因果ネットワークを推定する際の大きな利点を示す。
関連論文リスト
- Self-Supervised Contrastive Graph Clustering Network via Structural Information Fusion [15.293684479404092]
CGCNと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,事前学習プロセスにコントラスト信号と深部構造情報を導入している。
本手法は,複数の実世界のグラフデータセットに対して実験的に検証されている。
論文 参考訳(メタデータ) (2024-08-08T09:49:26Z) - Understanding Reinforcement Learning-Based Fine-Tuning of Diffusion Models: A Tutorial and Review [63.31328039424469]
このチュートリアルは、下流の報酬関数を最適化するための微調整拡散モデルのための方法を網羅的に調査する。
PPO,微分可能最適化,報酬重み付きMLE,値重み付きサンプリング,経路整合性学習など,様々なRLアルゴリズムの適用について説明する。
論文 参考訳(メタデータ) (2024-07-18T17:35:32Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Score Approximation, Estimation and Distribution Recovery of Diffusion
Models on Low-Dimensional Data [68.62134204367668]
本稿では,未知の低次元線形部分空間上でデータをサポートする場合の拡散モデルのスコア近似,推定,分布回復について検討する。
適切に選択されたニューラルネットワークアーキテクチャでは、スコア関数を正確に近似し、効率的に推定することができる。
推定スコア関数に基づいて生成された分布は、データ幾何学構造を捕捉し、データ分布の近傍に収束する。
論文 参考訳(メタデータ) (2023-02-14T17:02:35Z) - Learning Distributionally Robust Models at Scale via Composite
Optimization [45.47760229170775]
DROの異なる変種が、スケーラブルな方法を提供する有限サム合成最適化の単なる例であることを示す。
また、非常に大規模なデータセットからロバストなモデルを学ぶために、先行技術に関して提案アルゴリズムの有効性を示す実験結果も提供する。
論文 参考訳(メタデータ) (2022-03-17T20:47:42Z) - A Differentiable Approach to Combinatorial Optimization using Dataless
Neural Networks [20.170140039052455]
我々は、ソリューションを生成するニューラルネットワークのトレーニングにデータを必要としないという、根本的に異なるアプローチを提案する。
特に、最適化問題をニューラルネットワークに還元し、データレストレーニングスキームを用いて、それらのパラメータが関心の構造をもたらすように、ネットワークのパラメータを洗練する。
論文 参考訳(メタデータ) (2022-03-15T19:21:31Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - Linear Regression with Distributed Learning: A Generalization Error
Perspective [0.0]
大規模線形回帰のための分散学習の性能を検討する。
我々は、一般化エラー、すなわち、見当たらないデータのパフォーマンスに焦点を当てる。
その結果、分散ソリューションの一般化誤差は、集中ソリューションの一般化誤差よりも大幅に高いことが示された。
論文 参考訳(メタデータ) (2021-01-22T08:43:28Z) - Hierarchical regularization networks for sparsification based learning
on noisy datasets [0.0]
階層は、連続的により微細なスケールで特定される近似空間から従う。
各スケールでのモデル一般化を促進するため,複数次元にわたる新規な射影型ペナルティ演算子も導入する。
その結果、合成データセットと実データセットの両方において、データ削減およびモデリング戦略としてのアプローチの性能が示された。
論文 参考訳(メタデータ) (2020-06-09T18:32:24Z) - Learned Factor Graphs for Inference from Stationary Time Sequences [107.63351413549992]
定常時間列のためのモデルベースアルゴリズムとデータ駆動型MLツールを組み合わせたフレームワークを提案する。
ニューラルネットワークは、時系列の分布を記述する因子グラフの特定のコンポーネントを別々に学習するために開発された。
本稿では,学習された定常因子グラフに基づく推論アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-05T07:06:19Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。