論文の概要: DDPG-Driven Deep-Unfolding with Adaptive Depth for Channel Estimation
with Sparse Bayesian Learning
- arxiv url: http://arxiv.org/abs/2201.08477v1
- Date: Thu, 20 Jan 2022 22:35:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 15:00:23.407832
- Title: DDPG-Driven Deep-Unfolding with Adaptive Depth for Channel Estimation
with Sparse Bayesian Learning
- Title(参考訳): スパースベイズ学習を用いたチャネル推定のための適応深み付きddpg駆動ディープアンフォールディング
- Authors: Qiyu Hu, Shuhan Shi, Yunlong Cai and Guanding Yu
- Abstract要約: まず,異なる入力に対して適応的な深さを持つDDPG(Deep Deterministic Policy gradient)駆動のディープアンフォールディングの枠組みを開発する。
具体的には,大規模マルチインプットマルチアウトプットシステムにおけるチャネル推定問題に対処するために,このフレームワークを用いる。
- 参考スコア(独自算出の注目度): 23.158142411929322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep-unfolding neural networks (NNs) have received great attention since they
achieve satisfactory performance with relatively low complexity. Typically,
these deep-unfolding NNs are restricted to a fixed-depth for all inputs.
However, the optimal number of layers required for convergence changes with
different inputs. In this paper, we first develop a framework of deep
deterministic policy gradient (DDPG)-driven deep-unfolding with adaptive depth
for different inputs, where the trainable parameters of deep-unfolding NN are
learned by DDPG, rather than updated by the stochastic gradient descent
algorithm directly. Specifically, the optimization variables, trainable
parameters, and architecture of deep-unfolding NN are designed as the state,
action, and state transition of DDPG, respectively. Then, this framework is
employed to deal with the channel estimation problem in massive multiple-input
multiple-output systems. Specifically, first of all we formulate the channel
estimation problem with an off-grid basis and develop a sparse Bayesian
learning (SBL)-based algorithm to solve it. Secondly, the SBL-based algorithm
is unfolded into a layer-wise structure with a set of introduced trainable
parameters. Thirdly, the proposed DDPG-driven deep-unfolding framework is
employed to solve this channel estimation problem based on the unfolded
structure of the SBL-based algorithm. To realize adaptive depth, we design the
halting score to indicate when to stop, which is a function of the channel
reconstruction error. Furthermore, the proposed framework is extended to
realize the adaptive depth of the general deep neural networks (DNNs).
Simulation results show that the proposed algorithm outperforms the
conventional optimization algorithms and DNNs with fixed depth with much
reduced number of layers.
- Abstract(参考訳): ディープ・アンフォールディング・ニューラルネット(NN)は、比較的低い複雑さで良好な性能を達成したため、大きな注目を集めている。
通常、これらのディープアンフォールディングNNは全ての入力に対して固定深度に制限される。
しかし、収束に必要な層の数は異なる入力で変化する。
本稿では,まず,異なる入力に対して適応的な奥行きを持つ,ddpg(deep deterministic policy gradient)駆動のディープアンフォールディングの枠組みを考案し,確率的勾配降下アルゴリズムによって直接更新されるのではなく,ddpgで学習可能なnnの学習パラメータを学習する。
具体的には、ddpgの状態、動作、状態遷移として、最適化変数、トレーニング可能なパラメータ、およびディープアンフォールディングnnのアーキテクチャをそれぞれ設計する。
次に,多入力多重出力システムにおけるチャネル推定問題に対処するために,このフレームワークを用いる。
具体的には、まず、オフグリッドベースでチャネル推定問題を定式化し、スパースベイズ学習(SBL)に基づくアルゴリズムを開発し、それを解く。
第二に、SBLベースのアルゴリズムは、導入可能なトレーニング可能なパラメータのセットを持つ階層構造に展開される。
第3に、SBLアルゴリズムの展開構造に基づいて、提案したDDPG駆動のディープアンフォールディングフレームワークを用いて、このチャネル推定問題を解く。
適応的な深さを実現するために,チャネル再構成誤差の関数である停止時間を示す停止スコアを設計する。
さらに,提案手法を拡張し,一般深層ニューラルネットワーク(dnn)の適応的深さを実現する。
シミュレーションの結果,提案アルゴリズムは従来の最適化アルゴリズムやDNNよりも高い性能を示し,層数を大幅に削減した。
関連論文リスト
- Broad Critic Deep Actor Reinforcement Learning for Continuous Control [5.440090782797941]
アクター批判強化学習(RL)アルゴリズムのための新しいハイブリッドアーキテクチャを提案する。
提案したアーキテクチャは、広範学習システム(BLS)とディープニューラルネットワーク(DNN)を統合している。
提案アルゴリズムの有効性を2つの古典的連続制御タスクに適用することにより評価する。
論文 参考訳(メタデータ) (2024-11-24T12:24:46Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Unsupervised Learning of Initialization in Deep Neural Networks via
Maximum Mean Discrepancy [74.34895342081407]
本稿では,入力データに対する優れた初期化を求めるための教師なしアルゴリズムを提案する。
まず、パラメータ空間における各パラメータ構成が、d-way分類の特定の下流タスクに対応することに気付く。
次に、学習の成功は、初期パラメータの近傍で下流タスクがいかに多様であるかに直接関連していると推測する。
論文 参考訳(メタデータ) (2023-02-08T23:23:28Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - On the Turnpike to Design of Deep Neural Nets: Explicit Depth Bounds [0.0]
本稿では,Deep Neural Networks (DNN) において,どの層を考慮すべきかという質問に対する定量的回答を試みる。
基礎となる仮定は、層ごとのニューロンの数、すなわちDNNの幅が一定であることである。
我々は、仮定の到達可能性と訓練問題における正規化項の散逸誘導選択に基づいて、DNNの必要な深さの明示的な境界を証明する。
論文 参考訳(メタデータ) (2021-01-08T13:23:37Z) - Solving Sparse Linear Inverse Problems in Communication Systems: A Deep
Learning Approach With Adaptive Depth [51.40441097625201]
疎信号回復問題に対するエンドツーエンドの訓練可能なディープラーニングアーキテクチャを提案する。
提案手法は,出力するレイヤ数を学習し,各タスクのネットワーク深さを推論フェーズで動的に調整する。
論文 参考訳(メタデータ) (2020-10-29T06:32:53Z) - AutoPruning for Deep Neural Network with Dynamic Channel Masking [28.018077874687343]
深層ニューラルネットワークのための学習に基づくオートプルーニングアルゴリズムを提案する。
まず、各層に対する重みと最良チャネルを目的とする2つの目的の問題を定式化する。
次に、最適なチャネル数と重みを同時に導出するために、別の最適化手法を提案する。
論文 参考訳(メタデータ) (2020-10-22T20:12:46Z) - Non-Local Spatial Propagation Network for Depth Completion [82.60915972250706]
本研究では,深度完了のための堅牢で効率的な非局所的空間伝搬ネットワークを提案する。
提案するネットワークは,RGBとスパース深度画像を入力とし,各画素の非局所的近傍とその親和性を推定する。
提案アルゴリズムは,混合深度問題に対する深度補完精度とロバスト性の観点から,従来のアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-07-20T12:26:51Z) - Improving the Backpropagation Algorithm with Consequentialism Weight
Updates over Mini-Batches [0.40611352512781856]
適応フィルタのスタックとして多層ニューラルネットワークを考えることが可能であることを示す。
我々は,BPで発生した行動の悪影響を予測し,その発生前にも予測し,よりよいアルゴリズムを導入する。
我々の実験は、ディープニューラルネットワークのトレーニングにおけるアルゴリズムの有用性を示す。
論文 参考訳(メタデータ) (2020-03-11T08:45:36Z) - Semi-Implicit Back Propagation [1.5533842336139065]
ニューラルネットワークトレーニングのための半単純バック伝搬法を提案する。
ニューロンの差は後方方向に伝播し、パラメータは近位写像で更新される。
MNISTとCIFAR-10の両方の実験により、提案アルゴリズムは損失減少とトレーニング/検証の精度の両方において、より良い性能をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-10T03:26:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。