論文の概要: Federated Self-Supervised Learning for Automatic Modulation Classification under Non-IID and Class-Imbalanced Data
- arxiv url: http://arxiv.org/abs/2510.04927v1
- Date: Mon, 06 Oct 2025 15:37:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.945539
- Title: Federated Self-Supervised Learning for Automatic Modulation Classification under Non-IID and Class-Imbalanced Data
- Title(参考訳): 非IIDおよびクラス不均衡データに基づく自動変調分類のためのフェデレーション自己監督学習
- Authors: Usman Akram, Yiyue Chen, Haris Vikalo,
- Abstract要約: フェデレーション学習は、分散クライアントでのトレーニングによる集中的な集約を避ける。
我々は,クライアント間でのラベルなしI/Qシーケンスに対して,三重項の自己スーパービジョンで因果的・時間分割CNNを訓練し,次いで,小さなラベル付き集合上でのクライアントごとのSVMを学習するFedSSL-AMCを提案する。
- 参考スコア(独自算出の注目度): 18.951106077022672
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training automatic modulation classification (AMC) models on centrally aggregated data raises privacy concerns, incurs communication overhead, and often fails to confer robustness to channel shifts. Federated learning (FL) avoids central aggregation by training on distributed clients but remains sensitive to class imbalance, non-IID client distributions, and limited labeled samples. We propose FedSSL-AMC, which trains a causal, time-dilated CNN with triplet-loss self-supervision on unlabeled I/Q sequences across clients, followed by per-client SVMs on small labeled sets. We establish convergence of the federated representation learning procedure and a separability guarantee for the downstream classifier under feature noise. Experiments on synthetic and over-the-air datasets show consistent gains over supervised FL baselines under heterogeneous SNR, carrier-frequency offsets, and non-IID label partitions.
- Abstract(参考訳): 集中集約データに基づく自動変調分類(AMC)モデルのトレーニングは、プライバシの懸念を高め、通信オーバーヘッドを発生させ、しばしばチャンネルシフトにロバスト性を与えるのに失敗する。
フェデレートラーニング(FL)は、分散クライアントのトレーニングによる集中的な集約を回避するが、クラス不均衡、非IIDクライアント分布、限定されたラベル付きサンプルに敏感である。
我々は,クライアント間でのラベルなしI/Qシーケンスに対して,三重項の自己スーパービジョンで因果的・時間分割CNNを訓練し,次いで,小さなラベル付き集合上でのクライアントごとのSVMを学習するFedSSL-AMCを提案する。
我々は,フェデレートされた表現学習手順の収束と,特徴雑音下での下流分類器の分離可能性を保証する。
合成およびオーバー・ザ・エアデータセットの実験は、異種SNR、キャリア周波数オフセット、および非IIDラベルパーティションの下で、教師付きFLベースラインよりも一貫した利得を示す。
関連論文リスト
- Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - FedClust: Tackling Data Heterogeneity in Federated Learning through Weight-Driven Client Clustering [26.478852701376294]
フェデレートラーニング(Federated Learning, FL)は、分散機械学習のパラダイムである。
FLの主な課題の1つは、クライアントデバイスにまたがる不均一なデータ分散の存在である。
我々は,局所モデル重みとクライアントのデータ分布の相関を利用したCFLの新しい手法であるFedClustを提案する。
論文 参考訳(メタデータ) (2024-07-09T02:47:16Z) - Federated Contrastive Learning for Personalized Semantic Communication [55.46383524190467]
我々は,パーソナライズされたセマンティックコミュニケーションを支援することを目的とした,協調型コントラスト学習フレームワークを設計する。
FedCLは、複数のクライアントにわたるローカルセマンティックエンコーダと、基地局が所有するグローバルセマンティックデコーダの協調トレーニングを可能にする。
分散クライアント間の異種データセットから生じるセマンティック不均衡問題に対処するために,コントラスト学習を用いてセマンティックセントロイドジェネレータを訓練する。
論文 参考訳(メタデータ) (2024-06-13T14:45:35Z) - FedClust: Optimizing Federated Learning on Non-IID Data through
Weight-Driven Client Clustering [28.057411252785176]
Federated Learning(FL)は、分散型デバイス上で、ローカルデータを公開せずにコラボレーティブなモデルトレーニングを可能にする、新興の分散機械学習パラダイムである。
本稿では,局所モデル重みとクライアントデータ分布の相関を利用した新しいCFL手法であるFedClustを提案する。
論文 参考訳(メタデータ) (2024-03-07T01:50:36Z) - Combating Data Imbalances in Federated Semi-supervised Learning with
Dual Regulators [40.12377870379059]
フェデレートされた半教師付き学習(FSSL)は、少数のラベル付きデータからモデルをトレーニングするために現れる。
デュアルレギュレータであるFedDureを用いた新しいFSSLフレームワークを提案する。
FedDureは、さまざまな設定で既存のメソッドよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-11T15:45:03Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。