論文の概要: Improving Learning Efficiency for Wireless Resource Allocation with
Symmetric Prior
- arxiv url: http://arxiv.org/abs/2005.08510v4
- Date: Thu, 11 Nov 2021 06:14:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 00:34:34.855908
- Title: Improving Learning Efficiency for Wireless Resource Allocation with
Symmetric Prior
- Title(参考訳): 対称 pre を用いた無線資源割当のための学習効率の向上
- Authors: Chengjian Sun, Jiajun Wu and Chenyang Yang
- Abstract要約: 本稿では、まず、ドメイン知識を利用するための2つのアプローチのクラスを、数学的モデルの導入とディープラーニングへの事前知識の2つにまとめる。
このような総合的な事前手法が学習効率の向上にどのように活用されているかを説明するために,我々はランク付けを頼りにしている。
システム性能を達成するために必要なトレーニングサンプルは,サブキャリア数やコンテンツ数によって減少することがわかった。
- 参考スコア(独自算出の注目度): 28.275250620630466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Improving learning efficiency is paramount for learning resource allocation
with deep neural networks (DNNs) in wireless communications over highly dynamic
environments. Incorporating domain knowledge into learning is a promising way
of dealing with this issue, which is an emerging topic in the wireless
community. In this article, we first briefly summarize two classes of
approaches to using domain knowledge: introducing mathematical models or prior
knowledge to deep learning. Then, we consider a kind of symmetric prior,
permutation equivariance, which widely exists in wireless tasks. To explain how
such a generic prior is harnessed to improve learning efficiency, we resort to
ranking, which jointly sorts the input and output of a DNN. We use power
allocation among subcarriers, probabilistic content caching, and interference
coordination to illustrate the improvement of learning efficiency by exploiting
the property. From the case study, we find that the required training samples
to achieve given system performance decreases with the number of subcarriers or
contents, owing to an interesting phenomenon: "sample hardening". Simulation
results show that the training samples, the free parameters in DNNs and the
training time can be reduced dramatically by harnessing the prior knowledge.
The samples required to train a DNN after ranking can be reduced by $15 \sim
2,400$ folds to achieve the same system performance as the counterpart without
using prior.
- Abstract(参考訳): 高度にダイナミックな環境での無線通信におけるディープニューラルネットワーク(dnn)を用いた学習リソース割り当てでは、学習効率の向上が重要となる。
ドメイン知識を学習に組み込むことは、この問題に対処するための有望な方法である。
本稿では、まず、数学モデルの導入とディープラーニングへの事前知識という、ドメイン知識を使用するアプローチの2つのクラスを簡潔に要約します。
次に,ワイヤレスタスクに広く存在する対称な事前置換等分散について考察する。
そこで我々は,DNNの入力と出力を協調的にソートするランキングを,学習効率の向上にどのように活用するかを説明する。
我々は,サブキャリア間の電力配分,確率的コンテンツキャッシュ,干渉調整を用いて,その特性を利用して学習効率の向上を示す。
ケーススタディから, システム性能を達成するために必要なトレーニングサンプルは, サブキャリア数や内容数によって減少し, 興味深い現象として「サンプル硬化」がみられた。
シミュレーションの結果, DNNにおけるトレーニングサンプル, 自由パラメータ, トレーニング時間を, 事前知識を利用することで劇的に削減できることが示唆された。
ランク付け後のdnnのトレーニングに必要なサンプルは15 \sim 2,400$ foldsに削減でき、前もって使用せずにシステムパフォーマンスが同等になる。
関連論文リスト
- Towards Explainable Machine Learning: The Effectiveness of Reservoir
Computing in Wireless Receive Processing [21.843365090029987]
本稿では,Reservoir Computing (RC) と呼ばれる一般的な学習手法を適用し,チャネル等化の具体的課題について検討する。
RCは従来の手法や学習に基づく手法に比べて優れた性能を示した。
また,これをシミュレーションにより最適化することにより,受信処理/シンボル検出性能の向上を示す。
論文 参考訳(メタデータ) (2023-10-08T00:44:35Z) - Provable Multi-Task Representation Learning by Two-Layer ReLU Neural Networks [69.38572074372392]
本稿では,複数タスクにおける非線形モデルを用いたトレーニング中に特徴学習が発生することを示す最初の結果を示す。
私たちのキーとなる洞察は、マルチタスク事前トレーニングは、通常タスク間で同じラベルを持つポイントを整列する表現を好む擬似コントラスト的損失を誘導するということです。
論文 参考訳(メタデータ) (2023-07-13T16:39:08Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Training Networks in Null Space of Feature Covariance for Continual
Learning [34.095874368589904]
従来のタスクのヌルスペース内でネットワークパラメータを逐次最適化する新しいネットワークトレーニングアルゴリズムadam-nsclを提案する。
このアプローチを,cifar-100とtinyimagenetのベンチマークデータセット上での連続学習のためのトレーニングネットワークに適用する。
論文 参考訳(メタデータ) (2021-03-12T07:21:48Z) - ProtoDA: Efficient Transfer Learning for Few-Shot Intent Classification [21.933876113300897]
我々は,メタラーニングパラダイムの下で,原型ネットワークを用いた関連するタスクのアンサンブル上での伝達学習による代替的アプローチを採用する。
本研究は,意図分類を事例として,学習課題における多様性の増大が,分類性能を著しく向上させることを示した。
論文 参考訳(メタデータ) (2021-01-28T00:19:13Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Collaborative Method for Incremental Learning on Classification and
Generation [32.07222897378187]
本稿では,ニューラルネットワークを用いたインクリメンタルなクラス学習のための新しいアルゴリズム,Incrmental Class Learning with Attribute Sharing (ICLAS)を導入する。
そのコンポーネントの1つであるincGANは、トレーニングデータよりも多彩な画像を生成することができる。
データ不足の困難な環境下で、ICLASは段階的に分類と生成ネットワークを訓練する。
論文 参考訳(メタデータ) (2020-10-29T06:34:53Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。