論文の概要: Learning Networks from Gaussian Graphical Models and Gaussian Free
Fields
- arxiv url: http://arxiv.org/abs/2308.02344v1
- Date: Fri, 4 Aug 2023 14:18:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 12:42:48.251723
- Title: Learning Networks from Gaussian Graphical Models and Gaussian Free
Fields
- Title(参考訳): ガウス図形モデルとガウス自由場からの学習ネットワーク
- Authors: Subhro Ghosh, Soumendu Sundar Mukherjee, Hoang-Son Tran, Ujan
Gangopadhyay
- Abstract要約: 本稿では,ネットワーク上のGFFの繰り返し測定から,重み付きネットワーク(ほぼ同種のラプラシアン)の新たな推定法を提案する。
本研究は, 具体的な回収保証と, 必要な試料の複雑さに対する限界を有する推定器の有効性を実証する。
サンプルサイズで成長するネットワークの設定において、Erdos-Renyiランダムグラフに対して、接続しきい値より上の$G(d,p)$に対して、ネットワーク回復が高い確率で行われることを示す。
- 参考スコア(独自算出の注目度): 2.294014185517203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the problem of estimating the structure of a weighted network
from repeated measurements of a Gaussian Graphical Model (GGM) on the network.
In this vein, we consider GGMs whose covariance structures align with the
geometry of the weighted network on which they are based. Such GGMs have been
of longstanding interest in statistical physics, and are referred to as the
Gaussian Free Field (GFF). In recent years, they have attracted considerable
interest in the machine learning and theoretical computer science. In this
work, we propose a novel estimator for the weighted network (equivalently, its
Laplacian) from repeated measurements of a GFF on the network, based on the
Fourier analytic properties of the Gaussian distribution. In this pursuit, our
approach exploits complex-valued statistics constructed from observed data,
that are of interest on their own right. We demonstrate the effectiveness of
our estimator with concrete recovery guarantees and bounds on the required
sample complexity. In particular, we show that the proposed statistic achieves
the parametric rate of estimation for fixed network size. In the setting of
networks growing with sample size, our results show that for Erdos-Renyi random
graphs $G(d,p)$ above the connectivity threshold, we demonstrate that network
recovery takes place with high probability as soon as the sample size $n$
satisfies $n \gg d^4 \log d \cdot p^{-2}$.
- Abstract(参考訳): ネットワーク上のガウス図形モデル(GGM)の繰り返し測定から重み付きネットワークの構造を推定する問題について検討する。
本稿では、共分散構造を持つGGMを、それらに基づく重み付きネットワークの幾何学と一致させる。
このようなGGMは長い間統計物理学に興味を持ち、ガウス自由場(GFF)と呼ばれている。
近年では、機械学習と理論計算機科学に大きな関心を集めている。
本研究では、ガウス分布のフーリエ解析特性に基づいて、ネットワーク上のGFFの繰り返し測定から重み付きネットワーク(ほぼ同値のラプラシアン)の新たな推定法を提案する。
本手法は,観測データから構築した複素値統計を利用して,それぞれが興味を持つものである。
具体的な回収保証とサンプルの複雑さに対する限界を具体化した推定器の有効性を実証する。
特に,提案した統計量は,固定されたネットワークサイズに対するパラメトリック推定率を達成することを示す。
サンプルサイズで成長するネットワークの設定において、erdos-renyiランダムグラフに対して、接続しきい値より高く$g(d,p)$の場合、サンプルサイズ$n$が$n \gg d^4 \log d \cdot p^{-2}$を満たすと、高い確率でネットワークリカバリが行われることが示されている。
関連論文リスト
- Generalization of Geometric Graph Neural Networks [84.01980526069075]
幾何グラフニューラルネットワーク(GNN)の一般化能力について検討する。
我々は,このGNNの最適経験リスクと最適統計リスクとの一般化ギャップを証明した。
最も重要な観察は、前の結果のようにグラフのサイズに制限されるのではなく、1つの大きなグラフで一般化能力を実現することができることである。
論文 参考訳(メタデータ) (2024-09-08T18:55:57Z) - Generalization of Graph Neural Networks is Robust to Model Mismatch [84.01980526069075]
グラフニューラルネットワーク(GNN)は、その一般化能力によってサポートされている様々なタスクにおいて、その効果を実証している。
本稿では,多様体モデルから生成される幾何グラフで動作するGNNについて検討する。
本稿では,そのようなモデルミスマッチの存在下でのGNN一般化の堅牢性を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T16:00:44Z) - A Bayesian Take on Gaussian Process Networks [1.7188280334580197]
この研究はモンテカルロ法とマルコフ・チェイン・モンテカルロ法を実装し、ネットワーク構造の後方分布からサンプリングする。
提案手法は,ネットワークのグラフィカルな構造を復元する上で,最先端のアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-20T08:38:31Z) - Is Stochastic Gradient Descent Near Optimal? [0.0]
本研究では,多数のサンプルとクエリの総数を用いて,勾配勾配勾配の誤差が小さいことを示す。
このことは、SGDがJoen & Van Roy (arXiv:2203.00246) の情報理論的なサンプル複雑性境界を計算的に効率よく達成していることを示唆している。
論文 参考訳(メタデータ) (2022-09-18T18:26:43Z) - Bayesian Structure Learning with Generative Flow Networks [85.84396514570373]
ベイズ構造学習では、データから有向非巡回グラフ(DAG)上の分布を推定することに興味がある。
近年,ジェネレーティブ・フロー・ネットワーク(GFlowNets)と呼ばれる確率モデルのクラスが,ジェネレーティブ・モデリングの一般的なフレームワークとして紹介されている。
DAG-GFlowNetと呼ばれる本手法は,DAGよりも後方の正確な近似を提供する。
論文 参考訳(メタデータ) (2022-02-28T15:53:10Z) - Gaussian Mixture Graphical Lasso with Application to Edge Detection in
Brain Networks [21.49394455839253]
この作品はLatent DirichletAllocation (LDA)にインスパイアされたものです。
GaussianMixture Graphical Lasso (MGL) という新しいモデルを提案する。
mglは、各混合成分が生成する信号の比率とそれらのパラメータをemフレームワークを介して反復的に学習する。
論文 参考訳(メタデータ) (2021-01-13T21:15:30Z) - Fractal Gaussian Networks: A sparse random graph model based on Gaussian
Multiplicative Chaos [12.096252285460814]
フラクタルガウスネットワーク(FGN)と呼ばれる新しいネットワークモデルを提案する。
FGNはよく定義され解析的に抽出可能なフラクタル構造を具現化する。
論文 参考訳(メタデータ) (2020-08-07T08:37:36Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。