論文の概要: Self-Adaptive and Robust Federated Spectrum Sensing without Benign Majority for Cellular Networks
- arxiv url: http://arxiv.org/abs/2507.12127v1
- Date: Wed, 16 Jul 2025 10:53:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.363642
- Title: Self-Adaptive and Robust Federated Spectrum Sensing without Benign Majority for Cellular Networks
- Title(参考訳): セルネットワークの良値性のない自己適応型及びロバストなフェデレーションスペクトルセンシング
- Authors: Ngoc Duy Pham, Thusitha Dayaratne, Viet Vo, Shangqi Lai, Sharif Abuadbba, Hajime Suzuki, Xingliang Yuan, Carsten Rudolph,
- Abstract要約: 本研究はFLSS(FL-based spectrum sensor)における2つの課題に対処する。
まず,実践的なスペクトルセンシングシナリオにおけるFLモデルのトレーニングのためのラベル付きデータの不足を,半教師付きFLアプローチに対処する。
第2に、データ中毒攻撃の影響に着目し、FLSSのセキュリティ脆弱性について検討する。
- 参考スコア(独自算出の注目度): 9.681746019018943
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advancements in wireless and mobile technologies, including 5G advanced and the envisioned 6G, are driving exponential growth in wireless devices. However, this rapid expansion exacerbates spectrum scarcity, posing a critical challenge. Dynamic spectrum allocation (DSA)--which relies on sensing and dynamically sharing spectrum--has emerged as an essential solution to address this issue. While machine learning (ML) models hold significant potential for improving spectrum sensing, their adoption in centralized ML-based DSA systems is limited by privacy concerns, bandwidth constraints, and regulatory challenges. To overcome these limitations, distributed ML-based approaches such as Federated Learning (FL) offer promising alternatives. This work addresses two key challenges in FL-based spectrum sensing (FLSS). First, the scarcity of labeled data for training FL models in practical spectrum sensing scenarios is tackled with a semi-supervised FL approach, combined with energy detection, enabling model training on unlabeled datasets. Second, we examine the security vulnerabilities of FLSS, focusing on the impact of data poisoning attacks. Our analysis highlights the shortcomings of existing majority-based defenses in countering such attacks. To address these vulnerabilities, we propose a novel defense mechanism inspired by vaccination, which effectively mitigates data poisoning attacks without relying on majority-based assumptions. Extensive experiments on both synthetic and real-world datasets validate our solutions, demonstrating that FLSS can achieve near-perfect accuracy on unlabeled datasets and maintain Byzantine robustness against both targeted and untargeted data poisoning attacks, even when a significant proportion of participants are malicious.
- Abstract(参考訳): 5Gアドバンストや6Gなど、ワイヤレスおよびモバイル技術の進歩は、ワイヤレスデバイスの指数的な成長を促している。
しかし、この急速な拡大はスペクトルの不足を悪化させ、重要な課題となった。
ダイナミックスペクトル割り当て(DSA) - スペクトルのセンシングと動的共有に依存し、この問題に対処するための重要な解決策として登場した。
機械学習(ML)モデルはスペクトルセンシングを改善する大きな可能性を秘めているが、MLベースの集中型DSAシステムへの採用は、プライバシの懸念、帯域幅の制約、規制上の問題によって制限されている。
これらの制限を克服するために、フェデレートラーニング(FL)のような分散MLベースのアプローチは、有望な代替手段を提供する。
本研究はFLSS(FL-based spectrum sensor)における2つの課題に対処する。
第一に、実用的なスペクトルセンシングシナリオにおけるFLモデルのトレーニングのためのラベル付きデータの不足は、半教師付きFLアプローチとエネルギー検出を組み合わせることで、ラベルなしデータセットのモデルトレーニングを可能にする。
第2に、データ中毒攻撃の影響に着目し、FLSSのセキュリティ脆弱性について検討する。
我々の分析は、そのような攻撃に対抗する上で、既存の多数決ベースの防御の欠点を浮き彫りにしている。
これらの脆弱性に対処するために,予防接種に触発された新たな防御機構を提案する。
合成データセットと実世界のデータセットの両方に対する大規模な実験により、FLSSが未ラベルのデータセットに対してほぼ完璧な精度を達成でき、ターゲットデータとターゲットデータの両方に対するByzantineの堅牢性を維持できることが実証された。
関連論文リスト
- LSM-2: Learning from Incomplete Wearable Sensor Data [65.58595667477505]
本稿では,Adaptive and Inherited Masking (AIM)を用いた第2世代Large Sensor Model (LSM-2)を紹介する。
AIMは明示的な計算を必要とせず、不完全なデータから直接堅牢な表現を学習する。
AIMを用いた LSM-2 は, 分類, 回帰, 生成モデルなど, 多様なタスクにまたがる最高の性能を実現する。
論文 参考訳(メタデータ) (2025-06-05T17:57:11Z) - WeiDetect: Weibull Distribution-Based Defense against Poisoning Attacks in Federated Learning for Network Intrusion Detection Systems [23.03944479383518]
WeiDetectは、悪意のある参加者を検知するFLベースのNIDSのための2段階のサーバーサイド防御機構である。
多様な攻撃環境におけるアプローチの有効性を評価する実験を行った。
WeDetectは最先端の防衛アプローチよりも優れています。
論文 参考訳(メタデータ) (2025-04-06T05:31:24Z) - Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - FedMADE: Robust Federated Learning for Intrusion Detection in IoT Networks Using a Dynamic Aggregation Method [7.842334649864372]
さまざまな分野にわたるIoT(Internet of Things)デバイスは、深刻なネットワークセキュリティ上の懸念をエスカレートしている。
サイバー攻撃分類のための従来の機械学習(ML)ベースの侵入検知システム(IDS)は、IoTデバイスからトラフィック分析のための集中サーバへのデータ送信を必要とし、深刻なプライバシー上の懸念を引き起こす。
我々はFedMADEという新しい動的アグリゲーション手法を紹介した。この手法はデバイスをトラフィックパターンによってクラスタリングし、その全体的なパフォーマンスに対する貢献に基づいてローカルモデルを集約する。
論文 参考訳(メタデータ) (2024-08-13T18:42:34Z) - Securing Distributed Network Digital Twin Systems Against Model Poisoning Attacks [19.697853431302768]
ディジタルツイン(DT)は、リアルタイム監視、予測、意思決定能力の向上を具現化する。
本研究では,分散ネットワークDTシステムにおけるセキュリティ上の課題について検討し,その後のネットワークアプリケーションの信頼性を損なう可能性がある。
論文 参考訳(メタデータ) (2024-07-02T03:32:09Z) - Personalized Wireless Federated Learning for Large Language Models [75.22457544349668]
大規模言語モデル(LLM)は、無線ネットワークにおいて大きな変革をもたらしている。
無線環境では、LLMのトレーニングはセキュリティとプライバシに関する重大な課題に直面している。
本稿では,無線ネットワークにおけるLLMのトレーニング段階の体系的解析を行い,事前学習,命令チューニング,アライメントチューニングを行う。
論文 参考訳(メタデータ) (2024-04-20T02:30:21Z) - Enabling Privacy-Preserving Cyber Threat Detection with Federated Learning [4.475514208635884]
本研究は, プライバシー保護型サイバー脅威検出のための学習の可能性について, 有効性, ビザンチンレジリエンス, 効率の観点から, 体系的に検証した。
FLトレーニングされた検出モデルは、中央訓練された検出モデルに匹敵する性能が得られることを示す。
現実的な脅威モデルの下では、FLはデータ中毒とモデル中毒の両方の攻撃に対して抵抗性があることが判明した。
論文 参考訳(メタデータ) (2024-04-08T01:16:56Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Studying the Robustness of Anti-adversarial Federated Learning Models
Detecting Cyberattacks in IoT Spectrum Sensors [0.4925222726301578]
デバイスフィンガープリントと機械学習(ML/DL)が組み合わさって、リソース制約スペクトルセンサによって管理されるデータを対象としたサイバー攻撃を検出する際に、有望な性能を報告している。
モデルのトレーニングに必要なデータ量と、そのようなシナリオのプライバシに関する懸念は、集中型ML/DLベースのアプローチの適用性を制限します。
論文 参考訳(メタデータ) (2022-01-31T22:52:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。