論文の概要: Deep Reinforcement Learning with Symmetric Prior for Predictive Power
Allocation to Mobile Users
- arxiv url: http://arxiv.org/abs/2103.13298v1
- Date: Wed, 10 Feb 2021 10:24:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 06:04:37.103084
- Title: Deep Reinforcement Learning with Symmetric Prior for Predictive Power
Allocation to Mobile Users
- Title(参考訳): モバイルユーザへの予測電力配分のための対称前置型深層強化学習
- Authors: Jianyu Zhao, Chenyang Yang
- Abstract要約: 我々は、ビデオストリーミングを要求するKモバイルユーザ間での予測電力配分を最適化するために、DDPGアルゴリズムを利用する。
DDPGのサンプリング複雑性とモデルサイズを低減するため,アクターネットワークや批評家ネットワークに先行する対称性を利用した。
シミュレーションの結果,バニラポリシと同等の性能を達成するために,対称な学習モデルが必要とするエピソードが示唆された。
- 参考スコア(独自算出の注目度): 28.067521005396358
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep reinforcement learning has been applied for a variety of wireless tasks,
which is however known with high training and inference complexity. In this
paper, we resort to deep deterministic policy gradient (DDPG) algorithm to
optimize predictive power allocation among K mobile users requesting video
streaming, which minimizes the energy consumption of the network under the
no-stalling constraint of each user. To reduce the sampling complexity and
model size of the DDPG, we exploit a kind of symmetric prior inherent in the
actor and critic networks: permutation invariant and equivariant properties, to
design the neural networks. Our analysis shows that the free model parameters
of the DDPG can be compressed by 2/K^2. Simulation results demonstrate that the
episodes required by the learning model with the symmetric prior to achieve the
same performance as the vanilla policy reduces by about one third when K = 10.
- Abstract(参考訳): 深い強化学習は様々なワイヤレスタスクに応用されているが、高いトレーニングと推論の複雑さで知られている。
本稿では,ビデオストリーミングを要求されるkモバイルユーザ間での予測電力配分を最適化するために,ddpg(deep deterministic policy gradient)アルゴリズムを用いる。
DDPGのサンプリング複雑性とモデルサイズを低減するために、アクターと批評家ネットワークに固有の対称的先行特性(置換不変性と同変特性)を利用してニューラルネットワークを設計する。
DDPGのフリーモデルパラメータを2/K^2で圧縮できることを示す。
シミュレーションの結果、k = 10 の場合、バニラポリシーと同じ性能を達成するのに、対称の学習モデルが要求するエピソードはおよそ3分の1減少することが示された。
関連論文リスト
- Local Loss Optimization in the Infinite Width: Stable Parameterization of Predictive Coding Networks and Target Propagation [8.35644084613785]
局所目標の2つの代表的設計に対して、無限幅極限における最大更新パラメータ化(mu$P)を導入する。
深層線形ネットワークを解析した結果,PCの勾配は1次勾配とガウス・ニュートン様勾配の間に介在していることが判明した。
我々は、特定の標準設定において、無限幅制限のPCは、一階勾配とよりよく似た振る舞いをすることを示した。
論文 参考訳(メタデータ) (2024-11-04T11:38:27Z) - Kronecker-Factored Approximate Curvature for Physics-Informed Neural Networks [3.7308074617637588]
PINN損失に対するKronecker-factored almost curvature (KFAC)を提案する。
我々のKFACベースの勾配は、小さな問題に対する高価な2階法と競合し、高次元のニューラルネットワークやPDEに好適にスケールし、一階法やLBFGSを一貫して上回ります。
論文 参考訳(メタデータ) (2024-05-24T14:36:02Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Deep learning model compression using network sensitivity and gradients [3.52359746858894]
非リトレーニング条件とリトレーニング条件の両方に対するモデル圧縮アルゴリズムを提案する。
まず,ネットワークパラメータの感度を用いた深層学習モデルの圧縮のためのBin & Quantアルゴリズムを提案する。
第2のケースでは、新しい勾配重み付きk平均クラスタリングアルゴリズム(GWK)を提案する。
論文 参考訳(メタデータ) (2022-10-11T03:02:40Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Layer Pruning on Demand with Intermediate CTC [50.509073206630994]
我々はコネクショニスト時間分類(CTC)に基づくASRの訓練と刈り取り方法を提案する。
本稿では,Transformer-CTCモデルをオンデマンドで様々な深さでプルーニングできることを示し,GPU上でのリアルタイム係数を0.005から0.002に改善した。
論文 参考訳(メタデータ) (2021-06-17T02:40:18Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z) - Learning Rates as a Function of Batch Size: A Random Matrix Theory
Approach to Neural Network Training [2.9649783577150837]
スパイクされたフィールド依存ランダム行列理論を用いて, ニューラルネットの損失景観に及ぼすミニバッチの影響について検討した。
我々は、スムーズで非ニュートンディープニューラルネットワークのための最大降下および適応訓練規則の解析式を導出する。
VGG/ResNetおよびImageNetデータセットのクレームを検証する。
論文 参考訳(メタデータ) (2020-06-16T11:55:45Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。