論文の概要: Decentralized Federated Learning: A Survey on Security and Privacy
- arxiv url: http://arxiv.org/abs/2401.17319v1
- Date: Thu, 25 Jan 2024 23:35:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-04 05:20:19.092613
- Title: Decentralized Federated Learning: A Survey on Security and Privacy
- Title(参考訳): 分散連合学習: セキュリティとプライバシに関する調査
- Authors: Ehsan Hallaji and Roozbeh Razavi-Far and Mehrdad Saif and Boyu Wang
and Qiang Yang
- Abstract要約: フェデレートラーニングは、プライバシー保護機能により、近年急速に発展し、人気が高まっている。
このアーキテクチャにおけるモデル更新と勾配の交換は、悪意のあるユーザに対する新たな攻撃面を提供する。
本研究は,分散化フェデレーション学習の信頼性と妥当性についても考察する。
- 参考スコア(独自算出の注目度): 15.790159174067174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning has been rapidly evolving and gaining popularity in recent
years due to its privacy-preserving features, among other advantages.
Nevertheless, the exchange of model updates and gradients in this architecture
provides new attack surfaces for malicious users of the network which may
jeopardize the model performance and user and data privacy. For this reason,
one of the main motivations for decentralized federated learning is to
eliminate server-related threats by removing the server from the network and
compensating for it through technologies such as blockchain. However, this
advantage comes at the cost of challenging the system with new privacy threats.
Thus, performing a thorough security analysis in this new paradigm is
necessary. This survey studies possible variations of threats and adversaries
in decentralized federated learning and overviews the potential defense
mechanisms. Trustability and verifiability of decentralized federated learning
are also considered in this study.
- Abstract(参考訳): フェデレーション学習は、プライバシ保護機能などによって、近年急速に進化し、人気が高まっている。
それでも、このアーキテクチャにおけるモデル更新と勾配の交換は、モデルのパフォーマンスとユーザおよびデータプライバシを脅かす可能性のある、悪意のあるネットワークユーザに対する新たな攻撃面を提供する。
この理由から、分散連合学習の主な動機の1つは、サーバーをネットワークから取り除き、ブロックチェーンのような技術で補償することで、サーバー関連の脅威を取り除くことである。
しかし、この利点は、新しいプライバシーの脅威でシステムに挑戦するコストにかかっている。
したがって、この新しいパラダイムで徹底的なセキュリティ分析を行う必要がある。
本調査は,分散連帯学習における脅威と敵意の変動の可能性を調査し,潜在的防衛メカニズムを概観する。
本研究は,分散化フェデレーション学習の信頼性と妥当性についても考察する。
関連論文リスト
- Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Security and Privacy Issues and Solutions in Federated Learning for
Digital Healthcare [0.0]
フェデレートラーニング(Federated Learning)の幅広い攻撃面に基づいて,脆弱性,攻撃,防御を提示する。
我々は、より堅牢なFLに向けた新しい研究の方向性を期待する。
論文 参考訳(メタデータ) (2024-01-16T16:07:53Z) - Security and Privacy Issues of Federated Learning [0.0]
フェデレートラーニング(FL)は、データのプライバシと機密性に対処するための有望なアプローチとして登場した。
本稿では,各種機械学習モデルを対象としたフェデレートラーニング(FL)におけるセキュリティとプライバシの包括的分類について述べる。
論文 参考訳(メタデータ) (2023-07-22T22:51:07Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Defending Against Poisoning Attacks in Federated Learning with
Blockchain [12.840821573271999]
ブロックチェーンと分散台帳技術に基づくセキュアで信頼性の高いフェデレーション学習システムを提案する。
本システムでは,オンチェーン型スマートコントラクトを利用したピアツーピア投票機構と報酬アンドスラッシュ機構を組み込んで,悪意ある行動の検出と検出を行う。
論文 参考訳(メタデータ) (2023-07-02T11:23:33Z) - Federated and Transfer Learning: A Survey on Adversaries and Defense
Mechanisms [4.5441516134546385]
この研究の主な目的は、フェデレーションと転送学習を使用するシステムのプライバシとパフォーマンスを損なう可能性のある潜在的な脆弱性と防御メカニズムを明らかにすることである。
論文 参考訳(メタデータ) (2022-07-05T22:07:26Z) - On the (In)security of Peer-to-Peer Decentralized Machine Learning [16.671864590599288]
我々は、受動的・能動的に非中央集権的な敵に対して、新しい攻撃群を紹介した。
分散学習の提案者による主張とは裏腹に、分散学習は連合学習よりもセキュリティ上の優位性を提供していないことを実証する。
論文 参考訳(メタデータ) (2022-05-17T15:36:50Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Byzantine-resilient Decentralized Stochastic Gradient Descent [85.15773446094576]
分散学習システムのビザンチンレジリエンスに関する詳細な研究について述べる。
ビザンチンフォールトトレランスを用いた分散学習を支援する新しいアルゴリズムUBARを提案する。
論文 参考訳(メタデータ) (2020-02-20T05:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。