論文の概要: Deep Multi-Scale Representation Learning with Attention for Automatic
Modulation Classification
- arxiv url: http://arxiv.org/abs/2209.03764v1
- Date: Wed, 31 Aug 2022 07:26:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-11 13:08:03.859212
- Title: Deep Multi-Scale Representation Learning with Attention for Automatic
Modulation Classification
- Title(参考訳): 自動変調分類のための注意深いマルチスケール表現学習
- Authors: Xiaowei Wu, Shengyun Wei, Yan Zhou
- Abstract要約: 畳み込み深部畳み込みニューラルネットワークをベースとしたAMCにおいて,カーネルサイズを大きくすることで,経験的な改善が得られた。
本稿では,大規模なカーネルサイズとSE機構(SE-MSFN)を備えたマルチスケール機能ネットワークを提案する。
SE-MSFNは、よく知られたRADIOML 2018.01Aデータセットで最先端の分類性能を達成する。
- 参考スコア(独自算出の注目度): 11.32380278232938
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Currently, deep learning methods with stacking small size convolutional
filters are widely used for automatic modulation classification (AMC). In this
report, we find some experienced improvements by using large kernel size for
convolutional deep convolution neural network based AMC, which is more
efficient in extracting multi-scale features of the raw signal I/Q sequence
data. Also, Squeeze-and-Excitation (SE) mechanisms can significantly help AMC
networks to focus on the more important features of the signal. As a result, we
propose a multi-scale feature network with large kernel size and SE mechanism
(SE-MSFN) in this paper. SE-MSFN achieves state-of-the-art classification
performance on the public well-known RADIOML 2018.01A dataset, with average
classification accuracy of 64.50%, surpassing CLDNN by 1.42%, maximum
classification accuracy of 98.5%, and an average classification accuracy of
85.53% in the lower SNR range 0dB to 10dB, surpassing CLDNN by 2.85%. In
addition, we also verified that ensemble learning can help further improve
classification performance. We hope this report can provide some references for
developers and researchers in practical scenes.
- Abstract(参考訳): 現在,小型畳み込みフィルタを積み重ねたディープラーニング手法は,自動変調分類(AMC)に広く用いられている。
本報告では,畳み込み型深層畳み込みニューラルネットワーク(amc)をベースとする大規模カーネルサイズを用いて,生信号i/q系列データのマルチスケール特徴抽出をより効率的に行うことにより,経験豊富な改善が得られた。
また、Squeeze-and-Excitation(SE)機構は、AMCネットワークが信号のより重要な特徴に集中するのに役立つ。
そこで本論文では,カーネルサイズとSE機構(SE-MSFN)を有するマルチスケール機能ネットワークを提案する。
SE-MSFNは、一般に知られたRADIOML 2018.01Aデータセットで最先端の分類性能を達成し、平均分類精度は64.50%、CLDNNは1.42%、最大分類精度は98.5%、下位SNR範囲0dBから10dBでは85.53%、CLDNNは2.85%である。
さらに,アンサンブル学習が分類性能の向上に役立つことも確認した。
このレポートが実際の場面で開発者や研究者に参考になることを期待しています。
関連論文リスト
- Systematic Architectural Design of Scale Transformed Attention Condenser
DNNs via Multi-Scale Class Representational Response Similarity Analysis [93.0013343535411]
マルチスケールクラス表現応答類似性分析(ClassRepSim)と呼ばれる新しいタイプの分析法を提案する。
ResNetスタイルのアーキテクチャにSTACモジュールを追加すると、最大1.6%の精度が向上することを示す。
ClassRepSim分析の結果は、STACモジュールの効果的なパラメータ化を選択するために利用することができ、競争性能が向上する。
論文 参考訳(メタデータ) (2023-06-16T18:29:26Z) - Nearest Neighbor Zero-Shot Inference [68.56747574377215]
kNN-Promptは、言語モデル(LM)を用いたゼロショット推論のためのk-nearest neighbor (kNN)検索拡張手法である。
ファジィ動詞化器は、各分類ラベルを自然言語トークンのセットに自動的に関連付けることで、下流タスクのスパースkNN分布を利用する。
実験により,kNN-Promptはドメイン適応に有効であり,さらに,kNN検索に使用するモデルのサイズに応じて,検索のメリットが増加することが示された。
論文 参考訳(メタデータ) (2022-05-27T07:00:59Z) - Automatic Machine Learning for Multi-Receiver CNN Technology Classifiers [16.244541005112747]
畳み込みニューラルネットワーク(CNN)は、信号分類のための最も研究されているディープラーニングモデルの1つである。
我々は、複数の同期受信機から収集した生のI/Qサンプルに基づく技術分類に焦点を当てた。
論文 参考訳(メタデータ) (2022-04-28T23:41:38Z) - An Efficient End-to-End Deep Neural Network for Interstitial Lung
Disease Recognition and Classification [0.5424799109837065]
本稿では、IDDパターンを分類するためのエンドツーエンドのディープ畳み込みニューラルネットワーク(CNN)を提案する。
提案モデルでは,カーネルサイズが異なる4つの畳み込み層と,Rectified Linear Unit (ReLU) アクティベーション機能を備える。
128のCTスキャンと5つのクラスからなる21328の画像パッチからなるデータセットを用いて、提案モデルのトレーニングと評価を行う。
論文 参考訳(メタデータ) (2022-04-21T06:36:10Z) - Dynamic Multi-scale Convolution for Dialect Identification [18.132769601922682]
本稿では、動的カーネル畳み込み、局所的マルチスケール学習、グローバルなマルチスケールプールからなる動的マルチスケール畳み込みを提案する。
提案アーキテクチャは,言語認識のAP20-OLR-dialect-taskにおいて,最先端のシステムよりも優れていた。
論文 参考訳(メタデータ) (2021-08-02T03:37:15Z) - A SPA-based Manifold Learning Framework for Motor Imagery EEG Data
Classification [2.4727719996518487]
本稿では,運動画像(MI)タスクから2種類の脳波データを分類するための多様体学習フレームワークを提案する。
特徴抽出のために、前処理された脳波信号から共通空間パターン(CSP)によって実装される。
分類のための特徴の近傍では、データの支持に対する局所近似が得られ、次に最も近い支持を持つクラスに特徴が割り当てられる。
論文 参考訳(メタデータ) (2021-07-30T06:18:05Z) - Convolutional Neural Networks in Multi-Class Classification of Medical
Data [0.9137554315375922]
深層学習(CNN)と浅い学習モデル(Gradient Boosting)を組み合わせたアンサンブルモデルを紹介します。
本手法は,本研究で達成した最高3クラス分類精度である64.93の精度を実現する。
論文 参考訳(メタデータ) (2020-12-28T02:04:38Z) - Delving Deep into Label Smoothing [112.24527926373084]
ディープニューラルネットワーク(DNN)の効果的な正規化ツールとしてのラベル平滑化
対象カテゴリのモデル予測の統計に基づいてソフトラベルを生成するオンラインラベル平滑化(OLS)戦略を提案する。
論文 参考訳(メタデータ) (2020-11-25T08:03:11Z) - A Two-Stage Approach to Device-Robust Acoustic Scene Classification [63.98724740606457]
デバイスロバスト性を改善するために,完全畳み込みニューラルネットワーク(CNN)に基づく2段階システムを提案する。
以上の結果から,提案したASCシステムにより,開発環境における最先端の精度が得られた。
クラスアクティベーションマッピングを用いたニューラルサリエンシ解析により、モデルによって学習されたパターンに関する新たな洞察が得られる。
論文 参考訳(メタデータ) (2020-11-03T03:27:18Z) - Device-Robust Acoustic Scene Classification Based on Two-Stage
Categorization and Data Augmentation [63.98724740606457]
我々は,GT,USTC,Tencent,UKEの4つのグループからなる共同で,DCASE 2020 Challengeの第1タスク - 音響シーン分類(ASC)に取り組む。
タスク1aは、複数の(実とシミュレートされた)デバイスで記録されたオーディオ信号のASCを10種類の微細なクラスにフォーカスする。
Task 1bは、低複雑さのソリューションを使用して、データを3つの上位クラスに分類することに関心がある。
論文 参考訳(メタデータ) (2020-07-16T15:07:14Z) - Learning Class Regularized Features for Action Recognition [68.90994813947405]
本稿では,階層活性化のクラスベース正規化を行うクラス正規化手法を提案する。
動作認識に最先端CNNアーキテクチャのクラス正規化ブロックを用いることで,Kineetics,UCF-101,HMDB-51データセットにおいて,それぞれ1.8%,1.2%,1.4%の体系的改善が得られた。
論文 参考訳(メタデータ) (2020-02-07T07:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。