論文の概要: Decentralized Learning of Tree-Structured Gaussian Graphical Models from
Noisy Data
- arxiv url: http://arxiv.org/abs/2109.10642v1
- Date: Wed, 22 Sep 2021 10:41:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 13:56:04.361806
- Title: Decentralized Learning of Tree-Structured Gaussian Graphical Models from
Noisy Data
- Title(参考訳): 雑音データを用いた木構造ガウス図形モデルの分散学習
- Authors: Akram Hussain
- Abstract要約: 本稿では,木構造ガウス図形モデル(GGM)の雑音データからの分散学習について検討する。
GGMは遺伝子制御ネットワークやソーシャルネットワークのような複雑なネットワークをモデル化するために広く利用されている。
提案した分散学習では,木構造GGMの推定にChow-Liuアルゴリズムを用いる。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper studies the decentralized learning of tree-structured Gaussian
graphical models (GGMs) from noisy data. In decentralized learning, data set is
distributed across different machines (sensors), and GGMs are widely used to
model complex networks such as gene regulatory networks and social networks.
The proposed decentralized learning uses the Chow-Liu algorithm for estimating
the tree-structured GGM.
In previous works, upper bounds on the probability of incorrect tree
structure recovery were given mostly without any practical noise for
simplification. While this paper investigates the effects of three common types
of noisy channels: Gaussian, Erasure, and binary symmetric channel. For
Gaussian channel case, to satisfy the failure probability upper bound $\delta >
0$ in recovering a $d$-node tree structure, our proposed theorem requires only
$\mathcal{O}(\log(\frac{d}{\delta}))$ samples for the smallest sample size
($n$) comparing to the previous literature \cite{Nikolakakis} with
$\mathcal{O}(\log^4(\frac{d}{\delta}))$ samples by using the positive
correlation coefficient assumption that is used in some important works in the
literature. Moreover, the approximately bounded Gaussian random variable
assumption does not appear in \cite{Nikolakakis}. Given some knowledge about
the tree structure, the proposed Algorithmic Bound will achieve obviously
better performance with small sample size (e.g., $< 2000$) comparing with
formulaic bounds. Finally, we validate our theoretical results by performing
simulations on synthetic data sets.
- Abstract(参考訳): 本稿では,木構造ガウス図形モデル(GGM)の雑音データからの分散学習について検討する。
分散学習では、データセットは異なるマシン(センサー)に分散し、GGMは遺伝子制御ネットワークやソーシャルネットワークなどの複雑なネットワークをモデル化するために広く利用されている。
提案する分散学習はchow-liuアルゴリズムを用いて木構造ggmを推定する。
従来の研究では, 木構造回復の確率の上限は, 簡易化のための実用的なノイズがほとんどなかった。
本稿では,ガウス,消去,二成分対称チャネルの3種類のノイズチャネルの効果について検討する。
ガウスチャネルの場合、$d$-ノード木構造を復元する際の故障確率を上限値$\delta > 0$ を満たすために、提案する定理は、以前の文献である \cite{nikolakakis} と$\mathcal{o}(\log^4(\frac{d}{\delta})) と比較して最小のサンプルサイズに対して$\mathcal{o}(\log(\frac{d}{\delta}))$のサンプルしか必要としない。
さらに、ほぼ有界なガウス確率変数の仮定は \cite{Nikolakakis} には現れない。
木構造に関するいくつかの知識から、提案されたアルゴリズム境界は明らかにより優れた性能を達成し、より小さなサンプルサイズ(例:$<2000$)を公式境界と比較する。
最後に,合成データセットのシミュレーションにより理論的結果を検証する。
関連論文リスト
- Efficient Sample-optimal Learning of Gaussian Tree Models via Sample-optimal Testing of Gaussian Mutual Information [1.7419682548187605]
ガウス確率変数に対する条件付き相互情報テスタを開発した。
条件付き相互情報の連鎖ルールは、推定された(条件付き)相互情報の保持を継続することを示す。
また、基礎となるガウスモデルが木構造であることが分かっていない場合、$widetildeTheta(n2varepsilon-2)$サンプルが必要であることも示している。
論文 参考訳(メタデータ) (2024-11-18T12:25:34Z) - Computational-Statistical Gaps in Gaussian Single-Index Models [77.1473134227844]
単次元モデル(Single-Index Models)は、植木構造における高次元回帰問題である。
我々は,統計的クエリ (SQ) と低遅延多項式 (LDP) フレームワークの両方において,計算効率のよいアルゴリズムが必ずしも$Omega(dkstar/2)$サンプルを必要とすることを示した。
論文 参考訳(メタデータ) (2024-03-08T18:50:19Z) - Convergence for score-based generative modeling with polynomial
complexity [9.953088581242845]
我々は、Scoreベースの生成モデルの背後にあるコアメカニックに対する最初の収束保証を証明した。
以前の作品と比較すると、時間的に指数関数的に増加するエラーや、次元の呪いに苦しむエラーは発生しない。
予測器・相関器はどちらの部分のみを使用するよりも収束性が高いことを示す。
論文 参考訳(メタデータ) (2022-06-13T14:57:35Z) - uGLAD: Sparse graph recovery by optimizing deep unrolled networks [11.48281545083889]
深層ネットワークを最適化してスパースグラフ復元を行う新しい手法を提案する。
我々のモデルであるuGLADは、最先端モデルGLADを教師なし設定に構築し、拡張します。
我々は, 遺伝子調節ネットワークから生成した合成ガウスデータ, 非ガウスデータを用いて, モデル解析を行い, 嫌気性消化の事例研究を行った。
論文 参考訳(メタデータ) (2022-05-23T20:20:27Z) - Active-LATHE: An Active Learning Algorithm for Boosting the Error
Exponent for Learning Homogeneous Ising Trees [75.93186954061943]
我々は、$rho$が少なくとも0.8$である場合に、エラー指数を少なくとも40%向上させるアルゴリズムを設計し、分析する。
我々の分析は、グラフの一部により多くのデータを割り当てるために、微小だが検出可能なサンプルの統計的変動を巧みに活用することに基づいている。
論文 参考訳(メタデータ) (2021-10-27T10:45:21Z) - Robustifying Algorithms of Learning Latent Trees with Vector Variables [92.18777020401484]
Recursive Grouping (RG) と Chow-Liu Recursive Grouping (CLRG) のサンプル複雑性について述べる。
RG,CLRG,Neighbor Joining (NJ) およびSpectral NJ (SNJ) をトラッピングした内積を用いて強化する。
我々は、潜在木の構造学習において、最初の既知のインスタンス依存の不合理性の結果を導出する。
論文 参考訳(メタデータ) (2021-06-02T01:37:52Z) - SGA: A Robust Algorithm for Partial Recovery of Tree-Structured
Graphical Models with Noisy Samples [75.32013242448151]
ノードからの観測が独立しているが非識別的に分散ノイズによって破損した場合、Ising Treeモデルの学習を検討する。
Katiyarら。
(2020) は, 正確な木構造は復元できないが, 部分木構造を復元できることを示した。
統計的に堅牢な部分木回復アルゴリズムであるSymmetrized Geometric Averaging(SGA)を提案する。
論文 参考訳(メタデータ) (2021-01-22T01:57:35Z) - Computationally efficient sparse clustering [67.95910835079825]
我々はPCAに基づく新しいクラスタリングアルゴリズムの有限サンプル解析を行う。
ここでは,ミニマックス最適誤クラスタ化率を,体制$|theta infty$で達成することを示す。
論文 参考訳(メタデータ) (2020-05-21T17:51:30Z) - Learning Gaussian Graphical Models via Multiplicative Weights [54.252053139374205]
乗算重み更新法に基づいて,Klivans と Meka のアルゴリズムを適用した。
アルゴリズムは、文献の他のものと質的に類似したサンプル複雑性境界を楽しみます。
ランタイムが低い$O(mp2)$で、$m$サンプルと$p$ノードの場合には、簡単にオンライン形式で実装できる。
論文 参考訳(メタデータ) (2020-02-20T10:50:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。