論文の概要: Privacy Threats and Countermeasures in Federated Learning for Internet of Things: A Systematic Review
- arxiv url: http://arxiv.org/abs/2407.18096v1
- Date: Thu, 25 Jul 2024 15:01:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 13:39:06.796965
- Title: Privacy Threats and Countermeasures in Federated Learning for Internet of Things: A Systematic Review
- Title(参考訳): モノのインターネットのためのフェデレーション学習におけるプライバシの脅威と対策:システムレビュー
- Authors: Adel ElZemity, Budi Arief,
- Abstract要約: モノのインターネット(IoT)におけるフェデレーション学習(Federated Learning in the Internet of Things)は、重要なプライバシとセキュリティ上の懸念をもたらす可能性がある。
我々は最近の文献を体系的に分析し、IoT環境内のFLにおけるプライバシーの脅威を特定した。
我々はこれらの脅威を軽減するために使用できる防衛措置を評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) in the Internet of Things (IoT) environments can enhance machine learning by utilising decentralised data, but at the same time, it might introduce significant privacy and security concerns due to the constrained nature of IoT devices. This represents a research challenge that we aim to address in this paper. We systematically analysed recent literature to identify privacy threats in FL within IoT environments, and evaluate the defensive measures that can be employed to mitigate these threats. Using a Systematic Literature Review (SLR) approach, we searched five publication databases (Scopus, IEEE Xplore, Wiley, ACM, and Science Direct), collating relevant papers published between 2017 and April 2024, a period which spans from the introduction of FL until now. Guided by the PRISMA protocol, we selected 49 papers to focus our systematic review on. We analysed these papers, paying special attention to the privacy threats and defensive measures -- specifically within the context of IoT -- using inclusion and exclusion criteria tailored to highlight recent advances and critical insights. We identified various privacy threats, including inference attacks, poisoning attacks, and eavesdropping, along with defensive measures such as Differential Privacy and Secure Multi-Party Computation. These defences were evaluated for their effectiveness in protecting privacy without compromising the functional integrity of FL in IoT settings. Our review underscores the necessity for robust and efficient privacy-preserving strategies tailored for IoT environments. Notably, there is a need for strategies against replay, evasion, and model stealing attacks. Exploring lightweight defensive measures and emerging technologies such as blockchain may help improve the privacy of FL in IoT, leading to the creation of FL models that can operate under variable network conditions.
- Abstract(参考訳): モノのインターネット(IoT)環境におけるフェデレートラーニング(FL)は、分散データを利用することで機械学習を強化することができるが、同時に、IoTデバイスの制約された性質のために、重要なプライバシとセキュリティ上の懸念を導入する可能性がある。
これは我々が本論文で目指す研究課題である。
我々は最近の文献を体系的に分析し、IoT環境内のFLにおけるプライバシーの脅威を特定し、これらの脅威を軽減するために使用できる防御策を評価した。
SLR(Systematic Literature Review)アプローチを用いて、2017年から2024年4月までのFL導入期間の関連論文を照合した5つのパブリッシュデータベース(Scopus、IEEE Xplore、Wiley、ACM、Science Direct)を検索した。
PRISMAプロトコルでガイドされた我々は、体系的なレビューに焦点を合わせるために49の論文を選択した。
これらの論文を分析して、最近の進歩と批判的な洞察を強調するために、包括的および排他的基準を使用して、プライバシーの脅威と防衛措置(特にIoTのコンテキスト内で)に特に注意を払っています。
我々は、推測攻撃、毒殺攻撃、盗聴などの様々なプライバシー上の脅威と、差分プライバシーやセキュア多人数計算などの防御策を特定した。
これらの防御は、IoT設定におけるFLの機能的整合性を損なうことなく、プライバシ保護の有効性を評価した。
われわれのレビューは、IoT環境に適した堅牢で効率的なプライバシー保護戦略の必要性を強調している。
特に、リプレイ、回避、モデル盗難攻撃に対する戦略が必要である。
軽量な防御策やブロックチェーンなどの新興テクノロジの探索は、IoTにおけるFLのプライバシ向上に役立つ可能性がある。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Unraveling Attacks in Machine Learning-based IoT Ecosystems: A Survey
and the Open Libraries Behind Them [9.55194238764852]
IoT(Internet of Things)は前例のない接続性の時代を迎え、2025年末までには800億のスマートデバイスが稼働すると予想されている。
機械学習(ML)は、IoT生成データの解析だけでなく、IoTエコシステム内のさまざまなアプリケーションにも重要な技術として機能する。
本稿では,MLのIoTへの統合によるセキュリティ上の脅威を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-22T06:52:35Z) - Trust-based Approaches Towards Enhancing IoT Security: A Systematic Literature Review [3.0969632359049473]
本研究は,IoTに対するTrustベースのサイバーセキュリティセキュリティアプローチについて,系統的な文献レビューを行う。
我々は、これらの脅威に対処するために存在する共通の信頼に基づく緩和テクニックを強調した。
いくつかのオープンな問題が強調され、将来の研究の方向性が提示された。
論文 参考訳(メタデータ) (2023-11-20T12:21:35Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Fed-LSAE: Thwarting Poisoning Attacks against Federated Cyber Threat Detection System via Autoencoder-based Latent Space Inspection [0.0]
サイバーセキュリティでは、センシティブなデータと文脈情報と高品質なラベル付けが重要な役割を果たす。
本稿では,潜在空間表現を利用したフェデレーション学習のための新しい頑健なアグリゲーション手法であるFed-LSAEについて検討する。
CIC-ToN-IoTおよびN-Ba IoTデータセットの実験結果から,最先端の毒殺攻撃に対する防御機構の実現可能性が確認された。
論文 参考訳(メタデータ) (2023-09-20T04:14:48Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - HBFL: A Hierarchical Blockchain-based Federated Learning Framework for a
Collaborative IoT Intrusion Detection [0.0]
セキュアでプライバシ保護されたコラボレーティブなIoT侵入検出を実現するために,階層的なブロックチェーンベースのフェデレーション学習フレームワークを提案する。
MLベースの侵入検出フレームワークの提案は、学習プロセスと組織データのプライバシを確保するために、階層的なフェデレーション付き学習アーキテクチャに従っている。
その結果は、データプライバシを保持しながら、広範囲の悪意あるアクティビティを検出できる、セキュアに設計されたMLベースの侵入検知システムである。
論文 参考訳(メタデータ) (2022-04-08T19:06:16Z) - A Systematic Literature Review on Blockchain Enabled Federated Learning
Framework for Internet of Vehicles [1.0499611180329804]
フェデレートラーニング(FL)は、IoVのデータプライバシとセキュリティを保護する新しいアイデアとして証明されている。
IoVに対するBC-Enabled Learningフレームワークの適用と実装に関する総合的な調査を行う。
論文 参考訳(メタデータ) (2022-03-10T07:06:04Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。