論文の概要: Theoretical Analysis of Deep Neural Networks in Physical Layer
Communication
- arxiv url: http://arxiv.org/abs/2202.09954v1
- Date: Mon, 21 Feb 2022 02:36:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 12:49:15.439704
- Title: Theoretical Analysis of Deep Neural Networks in Physical Layer
Communication
- Title(参考訳): 物理層通信におけるディープニューラルネットワークの理論解析
- Authors: Jun Liu, Haitao Zhao, Dongtang Ma, Kai Mei and Jibo Wei
- Abstract要約: ディープニューラルネットワーク(DNN)ベースの物理層通信技術が注目されている。
本稿では,DNNが従来の手法と比較して物理層で同等の性能を達成できる理由を定量的に分析する。
- 参考スコア(独自算出の注目度): 8.015654492208368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, deep neural network (DNN)-based physical layer communication
techniques have attracted considerable interest. Although their potential to
enhance communication systems and superb performance have been validated by
simulation experiments, little attention has been paid to the theoretical
analysis. Specifically, most studies in the physical layer have tended to focus
on the application of DNN models to wireless communication problems but not to
theoretically understand how does a DNN work in a communication system. In this
paper, we aim to quantitatively analyze why DNNs can achieve comparable
performance in the physical layer comparing with traditional techniques, and
also drive their cost in terms of computational complexity. To achieve this
goal, we first analyze the encoding performance of a DNN-based transmitter and
compare it to a traditional one. And then, we theoretically analyze the
performance of DNN-based estimator and compare it with traditional estimators.
Third, we investigate and validate how information is flown in a DNN-based
communication system under the information theoretic concepts. Our analysis
develops a concise way to open the "black box" of DNNs in physical layer
communication, which can be applied to support the design of DNN-based
intelligent communication techniques and help to provide explainable
performance assessment.
- Abstract(参考訳): 近年,ディープニューラルネットワーク(DNN)に基づく物理層通信技術が注目されている。
シミュレーション実験により通信システムの向上や高性能化の可能性は検証されているものの,理論解析にはほとんど注目されていない。
具体的には、物理層におけるほとんどの研究は、無線通信問題へのDNNモデルの適用に焦点を当てる傾向にあるが、DNNが通信システムでどのように機能するか理論的には理解しない傾向にある。
本稿では,DNNが従来の手法と比較して物理層で同等の性能を達成できる理由を定量的に分析し,計算複雑性の観点からコスト削減を図ることを目的とする。
この目的を達成するために、まずDNNベースの送信機の符号化性能を分析し、従来のものと比較する。
そして、理論的にDNNに基づく推定器の性能を分析し、従来の推定器と比較する。
第3に,情報理論の概念に基づくDNNベースの通信システムにおいて,情報がどのように流れるかを調査し,検証する。
本研究は,dnnを用いた知的通信技術の設計支援や,説明可能な性能評価を行う上で有効である,物理層通信におけるdnnの「ブラックボックス」を開くための簡潔な方法を開発した。
関連論文リスト
- The Robustness of Spiking Neural Networks in Communication and its Application towards Network Efficiency in Federated Learning [6.9569682335746235]
スパイキングニューラルネットワーク(SNN)は最近、組み込みデバイスでのオンチップ学習に多大な関心を集めている。
本稿では,フェデレートラーニングにおける雑音の多いコミュニケーション下でのSNNの本質的ロバスト性について検討する。
FLトレーニングにおける帯域幅の削減を目的とした,TopKスパシフィケーションを用いた新しいフェデレートラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-19T13:37:18Z) - Direct Training High-Performance Deep Spiking Neural Networks: A Review of Theories and Methods [33.377770671553336]
スパイキングニューラルネットワーク(SNN)は、人工ニューラルネットワーク(ANN)の代替として有望なエネルギー効率を提供する
本稿では,より深いSNNを高い性能で訓練するための理論と手法を要約する新しい視点を提供する。
論文 参考訳(メタデータ) (2024-05-06T09:58:54Z) - Deep Neural Networks via Complex Network Theory: a Perspective [3.1023851130450684]
ディープニューラルネットワーク(DNN)は、リンクと頂点が反復的にデータを処理し、タスクを亜最適に解くグラフとして表現することができる。複雑なネットワーク理論(CNT)は、統計物理学とグラフ理論を融合させ、その重みとニューロン構造を分析してニューラルネットワークを解釈する方法を提供する。
本研究では,DNNのトレーニング分布から抽出した測定値を用いて既存のCNTメトリクスを拡張し,純粋なトポロジカル解析からディープラーニングの解釈可能性へ移行する。
論文 参考訳(メタデータ) (2024-04-17T08:42:42Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - Spiking Neural Network Decision Feedback Equalization [70.3497683558609]
決定フィードバック等化器(DFE)に似たフィードバック構造を持つSNNベースの等化器を提案する。
提案手法は,3種類の模範チャネルに対して,従来の線形等化器よりも明らかに優れていることを示す。
決定フィードバック構造を持つSNNは、競合エネルギー効率の良いトランシーバへのパスを可能にする。
論文 参考訳(メタデータ) (2022-11-09T09:19:15Z) - Linear Leaky-Integrate-and-Fire Neuron Model Based Spiking Neural
Networks and Its Mapping Relationship to Deep Neural Networks [7.840247953745616]
スパイキングニューラルネットワーク(SNN)は、生物学的可視性や教師なし学習能力など、脳にインスパイアされた機械学習アルゴリズムである。
本稿では,リニアリーキー・インテグレート・アンド・ファイア・モデル(LIF/SNN)の生物学的パラメータとReLU-AN/Deep Neural Networks(DNN)のパラメータとの正確な数学的マッピングを確立する。
論文 参考訳(メタデータ) (2022-05-31T17:02:26Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - Opening the Black Box of Deep Neural Networks in Physical Layer
Communication [5.4430666212714005]
ディープニューラルネットワーク(DNN)ベースの物理層技術は、通信システムを強化する可能性から、かなりの関心を集めている。
本稿では,DNNが従来の手法と比較して物理層で同等の性能を達成できる理由と,計算複雑性の観点からコストを定量的に分析することを目的とする。
論文 参考訳(メタデータ) (2021-06-02T12:48:15Z) - Inter-layer Information Similarity Assessment of Deep Neural Networks
Via Topological Similarity and Persistence Analysis of Data Neighbour
Dynamics [93.4221402881609]
ディープニューラルネットワーク(DNN)による情報構造の定量的解析により、DNNアーキテクチャの理論的性能に関する新たな知見が明らかにされる。
量的情報構造解析のためのLSとIDの戦略に着想を得て, 層間情報類似度評価のための2つの新しい補完手法を提案する。
本研究では,画像データを用いた深層畳み込みニューラルネットワークのアーキテクチャ解析を行い,その効果を実証する。
論文 参考訳(メタデータ) (2020-12-07T15:34:58Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。