論文の概要: Secure Federated Learning for Cognitive Radio Sensing
- arxiv url: http://arxiv.org/abs/2304.06519v1
- Date: Thu, 23 Mar 2023 15:06:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-16 21:39:36.280165
- Title: Secure Federated Learning for Cognitive Radio Sensing
- Title(参考訳): 認知無線センシングのための安全なフェデレーション学習
- Authors: Malgorzata Wasilewska, Hanna Bogucka, H. Vincent Poor
- Abstract要約: 本稿では、フェデレートラーニング(FL)に基づく信頼性とセキュアなスペクトルセンシング(SS)について考察する。
SSにおけるFLのモチベーション、アーキテクチャ、アルゴリズムについて論じる。
これらのアルゴリズムに対するセキュリティとプライバシの脅威を概観するとともに、このような攻撃に対する対策も考えられる。
- 参考スコア(独自算出の注目度): 79.4098551457605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper considers reliable and secure Spectrum Sensing (SS) based on
Federated Learning (FL) in the Cognitive Radio (CR) environment. Motivation,
architectures, and algorithms of FL in SS are discussed. Security and privacy
threats on these algorithms are overviewed, along with possible countermeasures
to such attacks. Some illustrative examples are also provided, with design
recommendations for FL-based SS in future CRs.
- Abstract(参考訳): 本稿では,認知無線(CR)環境におけるフェデレート学習(FL)に基づくスペクトルセンシング(SS)の信頼性と安全性について考察する。
SSにおけるFLのモチベーション、アーキテクチャ、アルゴリズムについて論じる。
これらのアルゴリズムに対するセキュリティとプライバシの脅威を概観するとともに、このような攻撃に対する対策も考えられる。
flベースのssの設計を将来のcrsで推奨する例もいくつか提供されている。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Trustworthy Federated Learning: Privacy, Security, and Beyond [37.495790989584584]
Federated Learning (FL)は、生データを転送することなく、分散データソース間で協調的なモデルトレーニングを促進することで、問題に対処する。
FLが抱えるセキュリティとプライバシに関する広範な調査を行い、通信リンクの脆弱性とサイバー脅威の可能性を明らかにします。
FLフレームワーク内で発生する複雑なセキュリティ課題を特定し、セキュアで効率的なFLシステムの開発に寄与することを目的としている。
論文 参考訳(メタデータ) (2024-11-03T14:18:01Z) - Privacy in Federated Learning [0.0]
フェデレートラーニング(FL)は、分散機械学習における重要な進歩である。
この章では、データ再構成のリスク、モデル反転攻撃、メンバシップ推論など、FLの中核的なプライバシに関する懸念を掘り下げている。
モデル精度とプライバシのトレードオフを調べ、実践的な実装においてこれらの要因のバランスをとることの重要性を強調します。
論文 参考訳(メタデータ) (2024-08-12T18:41:58Z) - Securing the Open RAN Infrastructure: Exploring Vulnerabilities in Kubernetes Deployments [60.51751612363882]
ソフトウェアベースのオープン無線アクセスネットワーク(RAN)システムのセキュリティへの影響について検討する。
我々は、Near Real-Time RAN Controller(RIC)クラスタをサポートするインフラストラクチャに潜在的な脆弱性と設定ミスがあることを強調します。
論文 参考訳(メタデータ) (2024-05-03T07:18:45Z) - Causal Learning for Trustworthy Recommender Systems: A Survey [46.38233864851038]
本稿では、因果学習の観点から、信頼に値するRS(TRS)の概要を述べる。
それぞれの段階における潜在的信頼性の課題を特定し、それらを有効な因果解にリンクする。
論文 参考訳(メタデータ) (2024-02-13T06:12:17Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - OLIVE: Oblivious Federated Learning on Trusted Execution Environment
against the risk of sparsification [22.579050671255846]
本研究は,フェデレートラーニングと防衛におけるサーバサイドTEEの脆弱性の分析に焦点をあてる。
まず,メモリアクセスパターンの漏洩を理論的に解析し,スペーサー化勾配のリスクを明らかにする。
第2に、トレーニングデータセット内の機密情報にメモリアクセスパターンをリンクする推論攻撃を考案する。
論文 参考訳(メタデータ) (2022-02-15T03:23:57Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z) - Threats to Federated Learning: A Survey [35.724483191921244]
フェデレーテッド・ラーニング(FL)は、この新しい現実の下で有望なソリューションとして登場した。
既存のFLプロトコルの設計は、敵に悪用される脆弱性を示すことが示されている。
本稿では、FLの概念を簡潔に紹介し、脅威モデルをカバーするユニークな分類法と、FLに対する2つの主要な攻撃について述べる。
論文 参考訳(メタデータ) (2020-03-04T15:30:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。