論文の概要: Secure Federated Learning for Cognitive Radio Sensing
- arxiv url: http://arxiv.org/abs/2304.06519v1
- Date: Thu, 23 Mar 2023 15:06:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-16 21:39:36.280165
- Title: Secure Federated Learning for Cognitive Radio Sensing
- Title(参考訳): 認知無線センシングのための安全なフェデレーション学習
- Authors: Malgorzata Wasilewska, Hanna Bogucka, H. Vincent Poor
- Abstract要約: 本稿では、フェデレートラーニング(FL)に基づく信頼性とセキュアなスペクトルセンシング(SS)について考察する。
SSにおけるFLのモチベーション、アーキテクチャ、アルゴリズムについて論じる。
これらのアルゴリズムに対するセキュリティとプライバシの脅威を概観するとともに、このような攻撃に対する対策も考えられる。
- 参考スコア(独自算出の注目度): 79.4098551457605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper considers reliable and secure Spectrum Sensing (SS) based on
Federated Learning (FL) in the Cognitive Radio (CR) environment. Motivation,
architectures, and algorithms of FL in SS are discussed. Security and privacy
threats on these algorithms are overviewed, along with possible countermeasures
to such attacks. Some illustrative examples are also provided, with design
recommendations for FL-based SS in future CRs.
- Abstract(参考訳): 本稿では,認知無線(CR)環境におけるフェデレート学習(FL)に基づくスペクトルセンシング(SS)の信頼性と安全性について考察する。
SSにおけるFLのモチベーション、アーキテクチャ、アルゴリズムについて論じる。
これらのアルゴリズムに対するセキュリティとプライバシの脅威を概観するとともに、このような攻撃に対する対策も考えられる。
flベースのssの設計を将来のcrsで推奨する例もいくつか提供されている。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Trustworthy Federated Learning: Privacy, Security, and Beyond [37.495790989584584]
Federated Learning (FL)は、生データを転送することなく、分散データソース間で協調的なモデルトレーニングを促進することで、問題に対処する。
FLが抱えるセキュリティとプライバシに関する広範な調査を行い、通信リンクの脆弱性とサイバー脅威の可能性を明らかにします。
FLフレームワーク内で発生する複雑なセキュリティ課題を特定し、セキュアで効率的なFLシステムの開発に寄与することを目的としている。
論文 参考訳(メタデータ) (2024-11-03T14:18:01Z) - Privacy in Federated Learning [0.0]
フェデレートラーニング(FL)は、分散機械学習における重要な進歩である。
この章では、データ再構成のリスク、モデル反転攻撃、メンバシップ推論など、FLの中核的なプライバシに関する懸念を掘り下げている。
モデル精度とプライバシのトレードオフを調べ、実践的な実装においてこれらの要因のバランスをとることの重要性を強調します。
論文 参考訳(メタデータ) (2024-08-12T18:41:58Z) - Securing the Open RAN Infrastructure: Exploring Vulnerabilities in Kubernetes Deployments [60.51751612363882]
ソフトウェアベースのオープン無線アクセスネットワーク(RAN)システムのセキュリティへの影響について検討する。
我々は、Near Real-Time RAN Controller(RIC)クラスタをサポートするインフラストラクチャに潜在的な脆弱性と設定ミスがあることを強調します。
論文 参考訳(メタデータ) (2024-05-03T07:18:45Z) - Robust Federated Learning for Wireless Networks: A Demonstration with Channel Estimation [6.402721982801266]
フェデレートラーニング(FL)は、無線ネットワークにおけるモデルのトレーニングのために、プライバシ保護のための協調的なアプローチを提供する。
FLを用いたチャネル推定に関する広範な研究にもかかわらず、FLに関連するセキュリティ上の懸念は注意を要する。
本稿では,このような脆弱性を分析し,それに対応する解決策を提示し,シミュレーションにより検証した。
論文 参考訳(メタデータ) (2024-04-03T22:03:28Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - OLIVE: Oblivious Federated Learning on Trusted Execution Environment
against the risk of sparsification [22.579050671255846]
本研究は,フェデレートラーニングと防衛におけるサーバサイドTEEの脆弱性の分析に焦点をあてる。
まず,メモリアクセスパターンの漏洩を理論的に解析し,スペーサー化勾配のリスクを明らかにする。
第2に、トレーニングデータセット内の機密情報にメモリアクセスパターンをリンクする推論攻撃を考案する。
論文 参考訳(メタデータ) (2022-02-15T03:23:57Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z) - Threats to Federated Learning: A Survey [35.724483191921244]
フェデレーテッド・ラーニング(FL)は、この新しい現実の下で有望なソリューションとして登場した。
既存のFLプロトコルの設計は、敵に悪用される脆弱性を示すことが示されている。
本稿では、FLの概念を簡潔に紹介し、脅威モデルをカバーするユニークな分類法と、FLに対する2つの主要な攻撃について述べる。
論文 参考訳(メタデータ) (2020-03-04T15:30:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。