論文の概要: Constructing Deep Neural Networks with a Priori Knowledge of Wireless
Tasks
- arxiv url: http://arxiv.org/abs/2001.11355v1
- Date: Wed, 29 Jan 2020 08:54:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 21:02:57.600297
- Title: Constructing Deep Neural Networks with a Priori Knowledge of Wireless
Tasks
- Title(参考訳): 無線タスクの事前知識を用いたディープニューラルネットワークの構築
- Authors: Jia Guo and Chenyang Yang
- Abstract要約: 無線タスクに広く存在する2種類の置換不変性は、モデルパラメータの数を減らすために利用することができる。
可変DNN (permutation invariant DNN) と呼ばれる特性を満たす入出力関係を持つDNNの特殊構造を求める。
予測資源配分と干渉調整を例として,教師なし・教師なし学習による最適政策学習にPINNをいかに活用できるかを示す。
- 参考スコア(独自算出の注目度): 37.060397377445504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have been employed for designing wireless systems
in many aspects, say transceiver design, resource optimization, and information
prediction. Existing works either use the fully-connected DNN or the DNNs with
particular architectures developed in other domains. While generating labels
for supervised learning and gathering training samples are time-consuming or
cost-prohibitive, how to develop DNNs with wireless priors for reducing
training complexity remains open. In this paper, we show that two kinds of
permutation invariant properties widely existed in wireless tasks can be
harnessed to reduce the number of model parameters and hence the sample and
computational complexity for training. We find special architecture of DNNs
whose input-output relationships satisfy the properties, called permutation
invariant DNN (PINN), and augment the data with the properties. By learning the
impact of the scale of a wireless system, the size of the constructed PINNs can
flexibly adapt to the input data dimension. We take predictive resource
allocation and interference coordination as examples to show how the PINNs can
be employed for learning the optimal policy with unsupervised and supervised
learning. Simulations results demonstrate a dramatic gain of the proposed PINNs
in terms of reducing training complexity.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、トランシーバ設計、リソース最適化、情報予測など、多くの面で無線システムの設計に使用されている。
既存の作業は、完全に接続されたDNNまたは他のドメインで開発された特定のアーキテクチャを持つDNNを使用する。
教師付き学習とトレーニングサンプルの収集のためのラベルを生成するのに時間がかかるかコストがかかるが、トレーニングの複雑さを減らすためにワイヤレスプリミティブでdnnを開発する方法はまだオープンである。
本稿では,無線タスクに広く存在する2種類の置換不変性を利用して,モデルのパラメータ数を削減し,トレーニングにおけるサンプルと計算の複雑さを低減できることを示す。
入力-出力関係が特性を満たすDNN(permutation invariant DNN)と呼ばれるDNNの特別なアーキテクチャを見つけ,その特性を付加する。
無線システムのスケールの影響を学習することにより、構築されたPINNのサイズは入力データ次元に柔軟に適応することができる。
予測資源配分と干渉調整を例として,教師なし・教師なし学習による最適政策学習にPINNをいかに活用できるかを示す。
シミュレーションの結果, 学習複雑性の低減という観点から, 提案するピンの劇的な向上が示された。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングでは、スパイクニューラルネットワーク(SNN)が推論タスクを実行し、シーケンシャルデータを含むワークロードの大幅な効率向上を提供する。
ハードウェアとソフトウェアの最近の進歩は、スパイクニューロン間で交換された各スパイクに数ビットのペイロードを埋め込むことにより、推論精度をさらに高めることを示した。
本稿では,マルチレベルSNNを用いた無線ニューロモルフィック分割計算アーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - From Alexnet to Transformers: Measuring the Non-linearity of Deep Neural Networks with Affine Optimal Transport [32.39176908225668]
本稿では,DNNの非線形性シグネチャの概念を紹介する。これはディープニューラルネットワークの非線形性を測定するための,理論上初めての音響解である。
提案した非線形署名の実用性を明らかにするための実験結果について述べる。
論文 参考訳(メタデータ) (2023-10-17T17:50:22Z) - AutoPINN: When AutoML Meets Physics-Informed Neural Networks [30.798918516407376]
PINNは、観測可能な変数を通じて、物理的なツールで観測できないクリティカルパラメータを推定できる。
既存のPINNは手動で設計されることが多く、時間を要するため、最適以下の性能につながる可能性がある。
本稿では,AutoMLとPINNを組み合わせることで,PINNの自動設計を可能にするフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-08T03:44:08Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Separable PINN: Mitigating the Curse of Dimensionality in
Physics-Informed Neural Networks [6.439575695132489]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆問題の両方に新しいデータ駆動型PDEソルバとして登場した。
自動微分(AD)の計算は、PINNのトレーニングにおいて前方モードADを活用することで大幅に削減できることを示す。
我々は、より効率的な計算のために、前進モードADを容易に行える分離可能なPINN(SPINN)と呼ばれるネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-16T08:46:52Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Self-Supervised Learning of Event-Based Optical Flow with Spiking Neural
Networks [3.7384509727711923]
ニューロモルフィックコンピューティングの大きな課題は、従来の人工ニューラルネットワーク(ANN)の学習アルゴリズムがスパイクニューラルネットワーク(SNN)に直接転送されないことである。
本稿では,イベントベースカメラ入力からの光フロー推定における自己教師型学習問題に着目した。
提案するANNとSNNの性能は,自己教師型で訓練された現在の最先端のANNと同等であることを示す。
論文 参考訳(メタデータ) (2021-06-03T14:03:41Z) - Learning Power Control for Cellular Systems with Heterogeneous Graph
Neural Network [37.060397377445504]
電力制御ポリシには異なるPI特性とPE特性が組み合わさっており,既存のHetGNNはこれらの特性を満足していないことを示す。
We design a parameter sharing scheme for HetGNN that the learned relationship satisfed the desired properties。
論文 参考訳(メタデータ) (2020-11-06T02:41:38Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Self-Organized Operational Neural Networks with Generative Neurons [87.32169414230822]
ONNは、任意の非線型作用素をカプセル化できる一般化されたニューロンモデルを持つ異種ネットワークである。
我々は,各接続の結節演算子を適応(最適化)できる生成ニューロンを有する自己組織型ONN(Self-ONNs)を提案する。
論文 参考訳(メタデータ) (2020-04-24T14:37:56Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。