論文の概要: An Efficient Deep Learning Model for Automatic Modulation Recognition
Based on Parameter Estimation and Transformation
- arxiv url: http://arxiv.org/abs/2110.04980v1
- Date: Mon, 11 Oct 2021 03:28:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 21:03:45.134568
- Title: An Efficient Deep Learning Model for Automatic Modulation Recognition
Based on Parameter Estimation and Transformation
- Title(参考訳): パラメータ推定と変換に基づく自動変調認識のための効率的なディープラーニングモデル
- Authors: Fuxin Zhang, Chunbo Luo, Jialang Xu, and Yang Luo
- Abstract要約: 本稿では,位相パラメータ推定と変換に基づく効率的なDL-AMRモデルを提案する。
我々のモデルは、類似の認識精度を持つベンチマークモデルよりも、トレーニング時間とテスト時間で競争力がある。
- 参考スコア(独自算出の注目度): 3.3941243094128035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic modulation recognition (AMR) is a promising technology for
intelligent communication receivers to detect signal modulation schemes.
Recently, the emerging deep learning (DL) research has facilitated
high-performance DL-AMR approaches. However, most DL-AMR models only focus on
recognition accuracy, leading to huge model sizes and high computational
complexity, while some lightweight and low-complexity models struggle to meet
the accuracy requirements. This letter proposes an efficient DL-AMR model based
on phase parameter estimation and transformation, with convolutional neural
network (CNN) and gated recurrent unit (GRU) as the feature extraction layers,
which can achieve high recognition accuracy equivalent to the existing
state-of-the-art models but reduces more than a third of the volume of their
parameters. Meanwhile, our model is more competitive in training time and test
time than the benchmark models with similar recognition accuracy. Moreover, we
further propose to compress our model by pruning, which maintains the
recognition accuracy higher than 90% while has less than 1/8 of the number of
parameters comparing with state-of-the-art models.
- Abstract(参考訳): 自動変調認識(AMR)は、インテリジェント通信受信機が信号変調スキームを検出するための有望な技術である。
近年,新たな深層学習(DL)研究は,高性能なDL-AMRアプローチを促進している。
しかし、ほとんどのDL-AMRモデルは認識精度にのみ焦点をあてており、大きなモデルサイズと高い計算複雑性をもたらす一方、軽量で低複雑さのモデルでは精度の要求を満たすのに苦労する。
このレターは、相パラメータ推定と変換に基づく効率的なdl-amrモデルを提案し、畳み込みニューラルネットワーク(cnn)とゲートリカレントユニット(gru)を特徴抽出層として、既存の最先端モデルに匹敵する高い認識精度を実現するが、パラメータの体積の3分の1以上を削減する。
一方,本モデルは,類似の認識精度を持つベンチマークモデルよりも,トレーニング時間とテスト時間において競争力が高い。
さらに,認識精度を90%以上維持しつつ,最先端モデルと比較してパラメータ数を1/8未満に抑え,pruningによりモデルを圧縮する手法を提案する。
関連論文リスト
- Transfer Learning Based Hybrid Quantum Neural Network Model for Surface Anomaly Detection [0.4604003661048266]
本稿では,古典モデルのパラメータ数を著しく削減するために,量子トランスファー学習(QTL)に基づくアプローチを提案する。
性能低下なしに、トレーニング可能なパラメータの総数を初期モデルの90%まで削減できることを示す。
論文 参考訳(メタデータ) (2024-08-30T19:40:52Z) - LORTSAR: Low-Rank Transformer for Skeleton-based Action Recognition [4.375744277719009]
LORTSARは2つの主要なトランスフォーマーベースモデル、"Hyperformer"と"STEP-CATFormer"に適用される。
本手法は, 認識精度の劣化や性能向上などにより, モデルパラメータの数を大幅に削減することができる。
これは、SVDと圧縮後の微調整を組み合わせることでモデル効率が向上し、人間の行動認識におけるより持続的で軽量で高性能な技術への道が開けることを確認する。
論文 参考訳(メタデータ) (2024-07-19T20:19:41Z) - Neural Language Model Pruning for Automatic Speech Recognition [4.10609794373612]
自動音声認識のためのトランスフォーマーベースニューラルネットワークモデルに適用したモデルプルーニング法について検討した。
本研究では,プルーニングフレーム作業の3つの側面,すなわちクレーター,メソッド,スケジューラを探索し,それらの寄与を精度と推論速度の観点から分析する。
論文 参考訳(メタデータ) (2023-10-05T10:01:32Z) - Heterogeneous Reservoir Computing Models for Persian Speech Recognition [0.0]
Reservoir Computing Model (RC)モデルは、トレーニングに安価であること、パラメータが大幅に少なく、創発的なハードウェア技術と互換性があることが証明されている。
異なるスケールで時間的コンテキストをキャプチャする入力の非線形変換を生成するために、異種単層および多層ESNを提案する。
論文 参考訳(メタデータ) (2022-05-25T09:15:15Z) - Model-based Deep Learning Receiver Design for Rate-Splitting Multiple
Access [65.21117658030235]
本研究では,モデルベース深層学習(MBDL)に基づく実用的なRSMA受信機の設計を提案する。
MBDL受信機は、符号なしシンボル誤り率(SER)、リンクレベルシミュレーション(LLS)によるスループット性能、平均トレーニングオーバーヘッドの観点から評価される。
その結果,MBDLはCSIRが不完全なSIC受信機よりも優れていた。
論文 参考訳(メタデータ) (2022-05-02T12:23:55Z) - Dynamically-Scaled Deep Canonical Correlation Analysis [77.34726150561087]
カノニカル相関解析 (CCA) は, 2つのビューの特徴抽出手法である。
本稿では,入力依存の正準相関モデルをトレーニングするための新しい動的スケーリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T12:52:49Z) - Mixed Precision Low-bit Quantization of Neural Network Language Models
for Speech Recognition [67.95996816744251]
長期間のメモリリカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端言語モデル(LM)は、実用アプリケーションではますます複雑で高価なものになりつつある。
現在の量子化法は、均一な精度に基づいており、量子化誤差に対するLMの異なる部分での様々な性能感度を考慮できない。
本稿では,新しい混合精度ニューラルネットワークLM量子化法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:24:02Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Balancing Accuracy and Latency in Multipath Neural Networks [0.09668407688201358]
我々は,一発のニューラルネットワーク探索モデルを用いて,難解な数のニューラルネットワークの性能を暗黙的に評価する。
本手法は,待ち時間が異なるモデル間の相対性能を正確にモデル化し,異なるデータセットをまたいだ精度で未検出モデルの性能を予測できることを示す。
論文 参考訳(メタデータ) (2021-04-25T00:05:48Z) - Hybrid modeling: Applications in real-time diagnosis [64.5040763067757]
我々は、機械学習にインスパイアされたモデルと物理モデルを組み合わせた、新しいハイブリッドモデリングアプローチの概要を述べる。
このようなモデルをリアルタイム診断に利用しています。
論文 参考訳(メタデータ) (2020-03-04T00:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。