論文の概要: FCOS: A Two-Stage Recoverable Model Pruning Framework for Automatic Modulation Recognition
- arxiv url: http://arxiv.org/abs/2505.21571v1
- Date: Tue, 27 May 2025 07:12:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.174381
- Title: FCOS: A Two-Stage Recoverable Model Pruning Framework for Automatic Modulation Recognition
- Title(参考訳): FCOS: 自動変調認識のための2段階復元可能なモデル実行フレームワーク
- Authors: Yao Lu, Tengfei Ma, Zeyu Wang, Zhuangzhi Chen, Dongwei Xu, Yun Lin, Qi Xuan, Guan Gui,
- Abstract要約: 自動変調認識のためのファイン・ツー・コア2段階プルーニングフレームワーク
複数のAMRベンチマークの実験では、FCOSが既存のチャネルおよび層プルーニング法より優れていることが示されている。
- 参考スコア(独自算出の注目度): 20.984813278551115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of wireless communications and the growing complexity of digital modulation schemes, traditional manual modulation recognition methods struggle to extract reliable signal features and meet real-time requirements in modern scenarios. Recently, deep learning based Automatic Modulation Recognition (AMR) approaches have greatly improved classification accuracy. However, their large model sizes and high computational demands hinder deployment on resource-constrained devices. Model pruning provides a general approach to reduce model complexity, but existing weight, channel, and layer pruning techniques each present a trade-off between compression rate, hardware acceleration, and accuracy preservation. To this end, in this paper, we introduce FCOS, a novel Fine-to-COarse two-Stage pruning framework that combines channel-level pruning with layer-level collapse diagnosis to achieve extreme compression, high performance and efficient inference. In the first stage of FCOS, hierarchical clustering and parameter fusion are applied to channel weights to achieve channel-level pruning. Then a Layer Collapse Diagnosis (LaCD) module uses linear probing to identify layer collapse and removes the collapsed layers due to high channel compression ratio. Experiments on multiple AMR benchmarks demonstrate that FCOS outperforms existing channel and layer pruning methods. Specifically, FCOS achieves 95.51% FLOPs reduction and 95.31% parameter reduction while still maintaining performance close to the original ResNet56, with only a 0.46% drop in accuracy on Sig2019-12. Code is available at https://github.com/yaolu-zjut/FCOS.
- Abstract(参考訳): 無線通信の急速な発展とデジタル変調方式の複雑さの増大により、従来の手動変調認識手法は信頼性の高い信号の特徴を抽出し、現代のシナリオにおけるリアルタイム要求を満たすのに苦労する。
近年,ディープラーニングに基づく自動変調認識(AMR)アプローチにより,分類精度が大幅に向上した。
しかし、その大きなモデルサイズと高い計算要求は、リソース制約されたデバイスへの展開を妨げる。
モデルプルーニングは、モデル複雑性を低減するための一般的なアプローチを提供するが、既存の重み、チャネル、層プルーニング技術はそれぞれ、圧縮率、ハードウェアアクセラレーション、精度保存のトレードオフを示す。
そこで,本稿では,チャネルレベルプルーニングと層レベル崩壊診断を組み合わせ,極端な圧縮,高性能,効率的な推論を実現するための,ファイン・ツー・コア2段階プルーニングフレームワークFCOSを紹介する。
FCOSの第1段階では、チャネルレベルのプルーニングを実現するために、チャネルウェイトに階層的クラスタリングとパラメータ融合を適用する。
次に、レイヤ崩壊診断(LaCD)モジュールは、線形プローブを用いて層崩壊を識別し、高いチャネル圧縮比により崩壊した層を除去する。
複数のAMRベンチマークの実験では、FCOSが既存のチャネルおよび層プルーニング法より優れていることが示されている。
具体的には、FCOSは95.51%のFLOPと95.31%のパラメータ削減を実現し、Sig2019-12では0.46%の精度でオリジナルのResNet56に近い性能を維持している。
コードはhttps://github.com/yaolu-zjut/FCOSで入手できる。
関連論文リスト
- APCoTTA: Continual Test-Time Adaptation for Semantic Segmentation of Airborne LiDAR Point Clouds [14.348191795901101]
空中レーザースキャン(ALS)ポイントクラウドセグメンテーションは、大規模3Dシーン理解の基本的な課題である。
Continuous Test-Time Adaptation (CTTA)は、ソース予測モデルを適用して、未ラベルのターゲットドメインを進化させるソリューションを提供する。
我々は,ALSポイントクラウドセマンティックセグメンテーションに適した最初のCTTA手法であるAPCoTTAを提案する。
論文 参考訳(メタデータ) (2025-05-15T05:21:16Z) - AdaFortiTran: An Adaptive Transformer Model for Robust OFDM Channel Estimation [22.40154714677385]
本稿では,アダフォーティトラン(Adaptive Fortified Transformer, AdaFortiTran)を提案する。
AdaFortiTranは最先端モデルと比較して平均2乗誤差(MSE)を最大6dB削減する。
論文 参考訳(メタデータ) (2025-05-14T02:22:37Z) - Accelerating Learnt Video Codecs with Gradient Decay and Layer-wise
Distillation [17.980800481385195]
本稿では, 勾配減衰と適応層ワイド蒸留に基づく新しいモデル非依存プルーニング手法を提案する。
その結果,BD-PSNRでは最大65%のMACと2倍のスピードアップ,0.3dB未満のBD-PSNRが得られた。
論文 参考訳(メタデータ) (2023-12-05T09:26:09Z) - Consistency Trajectory Models: Learning Probability Flow ODE Trajectory of Diffusion [56.38386580040991]
Consistency Trajectory Model (CTM) は Consistency Models (CM) の一般化である
CTMは、対戦訓練とスコアマッチング損失を効果的に組み合わせることで、パフォーマンスを向上させる。
CMとは異なり、CTMのスコア関数へのアクセスは、確立された制御可能/条件生成メソッドの採用を合理化することができる。
論文 参考訳(メタデータ) (2023-10-01T05:07:17Z) - Structured Sparsity Learning for Efficient Video Super-Resolution [99.1632164448236]
我々は、ビデオ超解像(VSR)モデルの特性に応じて、構造化スパシティ学習(SSL)と呼ばれる構造化プルーニング手法を開発する。
SSLでは,残差ブロック,リカレントネットワーク,アップサンプリングネットワークなど,VSRモデルのいくつかの重要なコンポーネントに対するプルーニングスキームを設計する。
論文 参考訳(メタデータ) (2022-06-15T17:36:04Z) - ABCP: Automatic Block-wise and Channel-wise Network Pruning via Joint
Search [10.544159086698112]
本稿では,ブロックワイド・チャネルワイド・ネットワーク・プルーニング(ABCP)を提案し,ブロックワイド・チャネルワイド・プルーニング動作と深い強化学習を併用する。
従来のルールベースプルーニング法と比較して、このパイプラインは人間の労力を節約し、より低い精度の損失で高い圧縮比を達成する。
モバイルロボット検出データセットでテストされたYOLOv3モデルは、99.5%のFLOPを節約し、99.5%のパラメータを削減し、わずか2.8%のmAP損失で37.3倍の速度向上を達成した。
論文 参考訳(メタデータ) (2021-10-08T02:15:49Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Layer Pruning via Fusible Residual Convolutional Block for Deep Neural
Networks [15.64167076052513]
レイヤプルーニングは、同じFLOPとパラメータの数でプルーニングされる場合、推論時間と実行時のメモリ使用量が少なくなる。
残差畳み込みブロック(ResConv)を用いた簡単な層切断法を提案する。
本手法は, 異なるデータセット上での最先端技術に対する圧縮と加速の優れた性能を実現する。
論文 参考訳(メタデータ) (2020-11-29T12:51:16Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。