論文の概要: SplitAMC: Split Learning for Robust Automatic Modulation Classification
- arxiv url: http://arxiv.org/abs/2304.12200v1
- Date: Mon, 17 Apr 2023 12:15:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-30 07:38:53.831410
- Title: SplitAMC: Split Learning for Robust Automatic Modulation Classification
- Title(参考訳): SplitAMC:ロバスト自動変調分類のための分割学習
- Authors: Jihoon Park, Seungeun Oh, Seong-Lyun Kim
- Abstract要約: 本研究では,スプリットラーニング(SL)フレームワークをベースとした新しいAMC手法であるSplitAMCを開発した。
SplitAMCがCentAMCとFedeAMCよりも、すべてのSNRの精度とレイテンシで優れていることを検証する。
- 参考スコア(独自算出の注目度): 5.31117862338528
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic modulation classification (AMC) is a technology that identifies a
modulation scheme without prior signal information and plays a vital role in
various applications, including cognitive radio and link adaptation. With the
development of deep learning (DL), DL-based AMC methods have emerged, while
most of them focus on reducing computational complexity in a centralized
structure. This centralized learning-based AMC (CentAMC) violates data privacy
in the aspect of direct transmission of client-side raw data. Federated
learning-based AMC (FedeAMC) can bypass this issue by exchanging model
parameters, but causes large resultant latency and client-side computational
load. Moreover, both CentAMC and FedeAMC are vulnerable to large-scale noise
occured in the wireless channel between the client and the server. To this end,
we develop a novel AMC method based on a split learning (SL) framework, coined
SplitAMC, that can achieve high accuracy even in poor channel conditions, while
guaranteeing data privacy and low latency. In SplitAMC, each client can benefit
from data privacy leakage by exchanging smashed data and its gradient instead
of raw data, and has robustness to noise with the help of high scale of smashed
data. Numerical evaluations validate that SplitAMC outperforms CentAMC and
FedeAMC in terms of accuracy for all SNRs as well as latency.
- Abstract(参考訳): 自動変調分類 (AMC) は、事前の信号情報を持たない変調スキームを識別し、認知無線やリンク適応など様々な用途において重要な役割を果たす技術である。
ディープラーニング(DL)の発展に伴い、DLベースのAMC手法が登場し、そのほとんどは集中型構造における計算複雑性の低減に焦点を当てている。
この集中学習ベースのAMC(CentAMC)は、クライアント側の生データの直接送信という側面でデータのプライバシーを侵害する。
フェデレート学習に基づくamc(fedeamc)は、モデルパラメータを交換することでこの問題を回避することができるが、大きなレイテンシとクライアント側の計算負荷を引き起こす。
さらに、CentAMCとFedeAMCは、クライアントとサーバ間の無線チャネルで発生する大規模なノイズに対して脆弱である。
そこで我々は,スプリットラーニング(SL)フレームワークであるSplitAMCをベースとした新しいAMC手法を開発した。
splitamcでは、各クライアントが生データの代わりにスマッシュされたデータとその勾配を交換することで、データのプライバシリークの恩恵を受けることができる。
SplitAMCがCentAMCとFedeAMCよりも、すべてのSNRの精度とレイテンシで優れていることを検証する。
関連論文リスト
- ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - FedADMM-InSa: An Inexact and Self-Adaptive ADMM for Federated Learning [1.802525429431034]
我々はFedADMM-InSaと呼ばれる不正確な自己適応型FedADMMアルゴリズムを提案する。
結果の不正確なADMMの収束は、強い凸損失関数の仮定の下で証明される。
提案アルゴリズムは,クライアントの局所的な計算負荷を大幅に低減し,バニラFedADMMと比較して学習プロセスを高速化する。
論文 参考訳(メタデータ) (2024-02-21T18:19:20Z) - AMC-Net: An Effective Network for Automatic Modulation Classification [22.871024969842335]
本稿では,マルチスケールかつ効率的な特徴抽出を行いながら,周波数領域の入力信号をノイズ化することで認識を改善する新しいAMC-Netを提案する。
2つの代表的なデータセットの実験により、我々のモデルは、現在の方法よりも効率と効率が良いことを示した。
論文 参考訳(メタデータ) (2023-04-02T04:26:30Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Model-based Deep Learning Receiver Design for Rate-Splitting Multiple
Access [65.21117658030235]
本研究では,モデルベース深層学習(MBDL)に基づく実用的なRSMA受信機の設計を提案する。
MBDL受信機は、符号なしシンボル誤り率(SER)、リンクレベルシミュレーション(LLS)によるスループット性能、平均トレーニングオーバーヘッドの観点から評価される。
その結果,MBDLはCSIRが不完全なSIC受信機よりも優れていた。
論文 参考訳(メタデータ) (2022-05-02T12:23:55Z) - Stochastic Coded Federated Learning with Convergence and Privacy
Guarantees [8.2189389638822]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習フレームワークとして多くの注目を集めている。
本稿では、トラグラー問題を緩和するために、SCFL(Coded Federated Learning)というコード付きフェデレーション学習フレームワークを提案する。
我々は、相互情報差分プライバシー(MI-DP)によるプライバシー保証を特徴付け、連合学習における収束性能を分析する。
論文 参考訳(メタデータ) (2022-01-25T04:43:29Z) - ACDC: Online Unsupervised Cross-Domain Adaptation [15.72925931271688]
本稿では,非教師付きドメイン適応フレームワークであるACDCを提案する。
ACDCは3つのモジュールを単一のモデルにカプセル化している。特徴を抽出する自動エンコーダ、ドメイン変換を実行する対向モジュール、ソースストリームを学習してターゲットストリームを予測する推定器である。
実験の結果, 基準法よりも目標精度が向上し, 場合によっては10%以上の増加が見られた。
論文 参考訳(メタデータ) (2021-10-04T11:08:32Z) - Federated Noisy Client Learning [105.00756772827066]
フェデレートラーニング(FL)は、複数のローカルクライアントに依存する共有グローバルモデルを協調的に集約する。
標準FLメソッドは、集約されたモデル全体のパフォーマンスを損なううるノイズの多いクライアントの問題を無視します。
本稿では,Fed-NCL (Federated Noisy Client Learning) を提案する。
論文 参考訳(メタデータ) (2021-06-24T11:09:17Z) - Multi-Armed Bandit Based Client Scheduling for Federated Learning [91.91224642616882]
統合学習(FL)は、通信オーバーヘッドの低減やデータのプライバシの保護など、ユビキタスな特性を特徴とする。
FLの各通信ラウンドでは、クライアントは自身のデータに基づいてローカルモデルを更新し、無線チャネル経由でローカル更新をアップロードする。
本研究は、無線チャネルの状態情報やクライアントの統計的特性を知ることなく、FLにおけるオンラインクライアントスケジューリング(CS)のためのマルチアームバンディットベースのフレームワークを提供する。
論文 参考訳(メタデータ) (2020-07-05T12:32:32Z) - Harnessing Wireless Channels for Scalable and Privacy-Preserving
Federated Learning [56.94644428312295]
無線接続は、フェデレートラーニング(FL)の実現に有効である
Channel randomnessperturbs 各ワーカはモデル更新をインバージョンし、複数のワーカはバンド幅に大きな干渉を発生させる。
A-FADMMでは、すべてのワーカーがモデル更新をアナログ送信を介して単一のチャンネルを使用してパラメータサーバにアップロードする。
これは通信帯域幅を節約するだけでなく、各ワーカーの正確なモデル更新軌跡を任意の盗聴者から隠蔽する。
論文 参考訳(メタデータ) (2020-07-03T16:31:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。