論文の概要: Learning the Structure of Large Networked Systems Obeying Conservation
Laws
- arxiv url: http://arxiv.org/abs/2206.07083v1
- Date: Tue, 14 Jun 2022 18:16:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 14:25:40.559945
- Title: Learning the Structure of Large Networked Systems Obeying Conservation
Laws
- Title(参考訳): 保全法を考慮した大規模ネットワークシステムの構造学習
- Authors: Anirudh Rayas, Rajasekhar Anguluri, Gautam Dasarathy
- Abstract要約: ネットワーク系における保存法則は、$X = B* Y$という形のバランス方程式としてモデル化することができる。
いくつかの実用的なシステムでは、ネットワーク構造はよく知られておらず、データから推定する必要がある。
高次元状態におけるこの問題に対する新たな$ell_1$-regularized maximum max 推定器を提案する。
- 参考スコア(独自算出の注目度): 5.86054250638667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many networked systems such as electric networks, the brain, and social
networks of opinion dynamics are known to obey conservation laws. Examples of
this phenomenon include the Kirchoff laws in electric networks and opinion
consensus in social networks. Conservation laws in networked systems may be
modeled as balance equations of the form $X = B^{*} Y$, where the sparsity
pattern of $B^{*}$ captures the connectivity of the network, and $Y, X \in
\mathbb{R}^p$ are vectors of "potentials" and "injected flows" at the nodes
respectively. The node potentials $Y$ cause flows across edges and the flows
$X$ injected at the nodes are extraneous to the network dynamics. In several
practical systems, the network structure is often unknown and needs to be
estimated from data. Towards this, one has access to samples of the node
potentials $Y$, but only the statistics of the node injections $X$. Motivated
by this important problem, we study the estimation of the sparsity structure of
the matrix $B^{*}$ from $n$ samples of $Y$ under the assumption that the node
injections $X$ follow a Gaussian distribution with a known covariance
$\Sigma_X$. We propose a new $\ell_{1}$-regularized maximum likelihood
estimator for this problem in the high-dimensional regime where the size of the
network $p$ is larger than sample size $n$. We show that this optimization
problem is convex in the objective and admits a unique solution. Under a new
mutual incoherence condition, we establish sufficient conditions on the triple
$(n,p,d)$ for which exact sparsity recovery of $B^{*}$ is possible with high
probability; $d$ is the degree of the graph. We also establish guarantees for
the recovery of $B^{*}$ in the element-wise maximum, Frobenius, and operator
norms. Finally, we complement these theoretical results with experimental
validation of the performance of the proposed estimator on synthetic and
real-world data.
- Abstract(参考訳): 電気ネットワーク、脳、世論力学の社会ネットワークなど多くのネットワークシステムは、保存則に従うことが知られている。
この現象の例としては、電気ネットワークにおけるキルホフ法則やソーシャルネットワークにおける意見合意などがある。
ネットワークシステムにおける保存則は、$x = b^{*} y$ という形の平衡方程式としてモデル化され、ここでは $b^{*}$ のスパーシティパターンがネットワークの接続を捉え、$y, x \in \mathbb{r}^p$ はそれぞれノードにおける「ポテンシャル」と「インジェクションフロー」のベクトルである。
ノード電位 $y$ はエッジを横切る流れを引き起こし、ノードに注入された$x$ フローはネットワークダイナミクスに余計なものである。
いくつかの実用的なシステムでは、ネットワーク構造はしばしば不明であり、データから推定する必要がある。
これに対して、ノード電位のサンプルへのアクセスは$y$であるが、ノード注入の統計のみは$x$である。
この重要な問題に動機づけられて、ノードインジェクション $x$ が既知の共分散 $\sigma_x$ を持つガウス分布に従うという仮定の下で、行列 $b^{*}$ のスパーシティ構造を$n$ のサンプルから推定する。
我々は,ネットワークのサイズが標本サイズ$n$よりも大きい高次元状態において,この問題に対する新たな$\ell_{1}$-regularized maximum max 推定器を提案する。
この最適化問題は目的において凸であり,一意な解決法であることを示す。
新しい相互不整合条件の下では、$b^{*}$ の正確なスパース性回復が高確率で可能となる三重項 $(n,p,d)$ について十分な条件を定め、$d$ はグラフの次数である。
また、要素ワイズ最大値、フロベニウス、演算子ノルムにおける$b^{*}$の回復を保証する。
最後に、これらの理論結果を合成および実世界のデータに対する推定器の性能の実験的検証により補完する。
関連論文リスト
- Deep Neural Networks: Multi-Classification and Universal Approximation [0.0]
我々は,幅2ドル,深さ2N+4M-1$のReLUディープニューラルネットワークが,$N$要素からなる任意のデータセットに対して有限標本記憶を達成できることを実証した。
また、$W1,p$関数を近似するための深さ推定と$Lp(Omega;mathbbRm)$ for $mgeq1$を近似するための幅推定も提供する。
論文 参考訳(メタデータ) (2024-09-10T14:31:21Z) - Bayesian Inference with Deep Weakly Nonlinear Networks [57.95116787699412]
我々は,完全連結ニューラルネットワークによるベイズ推定が解けることを示す物理レベルの厳密さを示す。
我々はモデルエビデンスを計算し、任意の温度で1/N$で任意の順序に後続する手法を提供する。
論文 参考訳(メタデータ) (2024-05-26T17:08:04Z) - Matching the Statistical Query Lower Bound for k-sparse Parity Problems with Stochastic Gradient Descent [83.85536329832722]
勾配勾配降下(SGD)は,$d$次元ハイパーキューブ上の$k$パリティ問題を効率的に解くことができることを示す。
次に、SGDでトレーニングされたニューラルネットワークがどのようにして、小さな統計的エラーで$k$-parityの問題を解決するかを実証する。
論文 参考訳(メタデータ) (2024-04-18T17:57:53Z) - Inferences on Mixing Probabilities and Ranking in Mixed-Membership
Models [5.992878098797828]
ネットワークデータは、経済や健康ネットワークを含む多くのビッグデータアプリケーションで広く利用されている。
本稿では,Degree-Corrected Mixed Membership (DCMM)モデルを用いてネットワークをモデル化する。
我々は、$boldsymbolpi_i(k)$sに対して、メンバシップ混合確率と他の関連する集団量の分布と信頼区間を得られるような、新しい有限サンプル展開を導出する。
論文 参考訳(メタデータ) (2023-08-29T02:35:45Z) - Effective Minkowski Dimension of Deep Nonparametric Regression: Function
Approximation and Statistical Theories [70.90012822736988]
ディープ非パラメトリック回帰に関する既存の理論は、入力データが低次元多様体上にある場合、ディープニューラルネットワークは本質的なデータ構造に適応できることを示した。
本稿では,$mathcalS$で表される$mathbbRd$のサブセットに入力データが集中するという緩和された仮定を導入する。
論文 参考訳(メタデータ) (2023-06-26T17:13:31Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - High-Dimensional Inference over Networks: Linear Convergence and
Statistical Guarantees [20.701475313495884]
エージェントネットワーク上の疎線形回帰を非指向グラフとしてモデル化し,サーバノードを持たない。
分布予測勾配追跡に基づくアルゴリズムの収束率と統計的保証を解析する。
論文 参考訳(メタデータ) (2022-01-21T01:26:08Z) - Distributed Sparse Feature Selection in Communication-Restricted
Networks [6.9257380648471765]
疎線形回帰と特徴選択のための新しい分散スキームを提案し,理論的に解析する。
データセット全体から因果次元を推定するために,ネットワーク内の情報共有をシンプルかつ効果的に行う手法を提案する。
論文 参考訳(メタデータ) (2021-11-02T05:02:24Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - Impact of Community Structure on Consensus Machine Learning [0.17188280334580192]
ブロックモデルから引き出されたネットワーク上でのコンセンサス機械学習について検討する。
私たちは、$tau_epsilon$が低い境界に達するような、コミュニティ構造の重要なレベルが存在することに気付きました。
論文 参考訳(メタデータ) (2020-11-02T21:41:35Z) - Learning Over-Parametrized Two-Layer ReLU Neural Networks beyond NTK [58.5766737343951]
2層ニューラルネットワークを学習する際の降下のダイナミクスについて考察する。
過度にパラメータ化された2層ニューラルネットワークは、タンジェントサンプルを用いて、ほとんどの地上で勾配損失を許容的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-09T07:09:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。