論文の概要: Inference in Multi-Layer Networks with Matrix-Valued Unknowns
- arxiv url: http://arxiv.org/abs/2001.09396v1
- Date: Sun, 26 Jan 2020 04:00:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 19:09:40.120897
- Title: Inference in Multi-Layer Networks with Matrix-Valued Unknowns
- Title(参考訳): 行列値未知の多層ネットワークにおける推論
- Authors: Parthe Pandit, Mojtaba Sahraee-Ardakan, Sundeep Rangan, Philip
Schniter, Alyson K. Fletcher
- Abstract要約: 出力の観測から多層ニューラルネットワークの入力変数と隠れ変数を推定する問題を考察する。
MAPおよびMMSE推論のための統一近似アルゴリズムを提案する。
提案したMulti-Layer Matrix VAMP (ML-Mat-VAMP) アルゴリズムの性能は, あるランダムな大システム制限下で正確に予測できることが示されている。
- 参考スコア(独自算出の注目度): 32.635971570510755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of inferring the input and hidden variables of a
stochastic multi-layer neural network from an observation of the output. The
hidden variables in each layer are represented as matrices. This problem
applies to signal recovery via deep generative prior models, multi-task and
mixed regression and learning certain classes of two-layer neural networks. A
unified approximation algorithm for both MAP and MMSE inference is proposed by
extending a recently-developed Multi-Layer Vector Approximate Message Passing
(ML-VAMP) algorithm to handle matrix-valued unknowns. It is shown that the
performance of the proposed Multi-Layer Matrix VAMP (ML-Mat-VAMP) algorithm can
be exactly predicted in a certain random large-system limit, where the
dimensions $N\times d$ of the unknown quantities grow as $N\rightarrow\infty$
with $d$ fixed. In the two-layer neural-network learning problem, this scaling
corresponds to the case where the number of input features and training samples
grow to infinity but the number of hidden nodes stays fixed. The analysis
enables a precise prediction of the parameter and test error of the learning.
- Abstract(参考訳): 確率的多層ニューラルネットワークの入力変数と隠れ変数を出力の観測から推定する問題を考察する。
各層に隠された変数は行列として表される。
この問題は、深層生成先行モデルによる信号回復、マルチタスクと混合回帰、および2層ニューラルネットワークのある種のクラス学習に適用される。
近年開発されたMulti-Layer Vector Approximate Message Passing (ML-VAMP) アルゴリズムを拡張して,MAPおよびMMSE推論の統一近似アルゴリズムを提案する。
提案したMulti-Layer Matrix VAMP (ML-Mat-VAMP) アルゴリズムの性能は、未知量の次元の$N\times d$が$d$で$N\rightarrow\infty$となるようなランダムな大システム制限下で正確に予測できることが示されている。
2層ニューラルネットワーク学習問題では、このスケーリングは入力特徴数とトレーニングサンプル数が無限大になるが、隠れノード数が固定されている場合に対応する。
この分析は、学習のパラメータとテストエラーの正確な予測を可能にする。
関連論文リスト
- A Nonoverlapping Domain Decomposition Method for Extreme Learning Machines: Elliptic Problems [0.0]
エクストリーム・ラーニング・マシン(ELM)は、単一層フィードフォワードニューラルネットワークを用いて偏微分方程式(PDE)を解く手法である。
本稿では,EMMのトレーニング時間を短縮するだけでなく,並列計算にも適する非重複領域分解法(DDM)を提案する。
論文 参考訳(メタデータ) (2024-06-22T23:25:54Z) - Sliding down the stairs: how correlated latent variables accelerate learning with neural networks [8.107431208836426]
入力累積に符号化された方向に沿った潜伏変数間の相関が高次相関から学習を高速化することを示す。
この結果は2層ニューラルネットワークのシミュレーションで確認された。
論文 参考訳(メタデータ) (2024-04-12T17:01:25Z) - An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Algorithms for Efficiently Learning Low-Rank Neural Networks [12.916132936159713]
低ランクニューラルネットワークの学習アルゴリズムについて検討する。
単層ReLUネットワークに最適な低ランク近似を学習するアルゴリズムを提案する。
低ランク$textitdeep$ネットワークをトレーニングするための新しい低ランクフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-02T01:08:29Z) - Memory-Efficient Backpropagation through Large Linear Layers [107.20037639738433]
Transformersのような現代のニューラルネットワークでは、線形層は後方通過時にアクティベーションを保持するために大きなメモリを必要とする。
本研究では,線形層によるバックプロパゲーションを実現するためのメモリ削減手法を提案する。
論文 参考訳(メタデータ) (2022-01-31T13:02:41Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - The Rate of Convergence of Variation-Constrained Deep Neural Networks [35.393855471751756]
変動制約のあるニューラルネットワークのクラスは、任意に小さな定数$delta$に対して、ほぼパラメトリックレート$n-1/2+delta$を達成することができることを示す。
その結果、滑らかな関数の近似に必要な神経機能空間は、しばしば知覚されるものほど大きくない可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-22T21:28:00Z) - Solving Sparse Linear Inverse Problems in Communication Systems: A Deep
Learning Approach With Adaptive Depth [51.40441097625201]
疎信号回復問題に対するエンドツーエンドの訓練可能なディープラーニングアーキテクチャを提案する。
提案手法は,出力するレイヤ数を学習し,各タスクのネットワーク深さを推論フェーズで動的に調整する。
論文 参考訳(メタデータ) (2020-10-29T06:32:53Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Multiple Angles of Arrival Estimation using Neural Networks [2.233624388203003]
本稿では,受信データから抽出した相関行列に基づいて,方位角と仰角を推定するニューラルネットワークを提案する。
その結果、ニューラルネットワークは低SNR下で正確な推定を達成でき、複数の信号に対処できることがわかった。
論文 参考訳(メタデータ) (2020-02-03T02:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。