論文の概要: A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy
- arxiv url: http://arxiv.org/abs/2302.10637v1
- Date: Tue, 21 Feb 2023 12:52:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 15:21:24.419644
- Title: A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy
- Title(参考訳): セキュリティ,ロバスト性,プライバシを視点とした信頼できるフェデレーション学習に関する調査
- Authors: Yifei Zhang, Dun Zeng, Jinglong Luo, Zenglin Xu, Irwin King
- Abstract要約: Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
- 参考スコア(独自算出の注目度): 47.89042524852868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trustworthy artificial intelligence (AI) technology has revolutionized daily
life and greatly benefited human society. Among various AI technologies,
Federated Learning (FL) stands out as a promising solution for diverse
real-world scenarios, ranging from risk evaluation systems in finance to
cutting-edge technologies like drug discovery in life sciences. However,
challenges around data isolation and privacy threaten the trustworthiness of FL
systems. Adversarial attacks against data privacy, learning algorithm
stability, and system confidentiality are particularly concerning in the
context of distributed training in federated learning. Therefore, it is crucial
to develop FL in a trustworthy manner, with a focus on security, robustness,
and privacy. In this survey, we propose a comprehensive roadmap for developing
trustworthy FL systems and summarize existing efforts from three key aspects:
security, robustness, and privacy. We outline the threats that pose
vulnerabilities to trustworthy federated learning across different stages of
development, including data processing, model training, and deployment. To
guide the selection of the most appropriate defense methods, we discuss
specific technical solutions for realizing each aspect of Trustworthy FL (TFL).
Our approach differs from previous work that primarily discusses TFL from a
legal perspective or presents FL from a high-level, non-technical viewpoint.
- Abstract(参考訳): 信頼できる人工知能(AI)技術は、日常生活に革命をもたらし、人間の社会に大きな利益をもたらした。
さまざまなai技術の中で、フェデレーション学習(federated learning, fl)は、金融におけるリスク評価システムから、生命科学における薬物発見のような最先端技術まで、さまざまな現実のシナリオに対する有望なソリューションである。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
データプライバシに対する敵意攻撃、学習アルゴリズムの安定性、システムの機密性は、連合学習における分散トレーニングの文脈において特に関係している。
したがって、セキュリティ、堅牢性、プライバシに重点を置いて、信頼できる方法でflを開発することが不可欠である。
本稿では,信頼性の高いFLシステムを開発するための包括的なロードマップを提案し,セキュリティ,堅牢性,プライバシの3つの重要な側面から既存の取り組みを要約する。
私たちは、データ処理、モデルトレーニング、デプロイメントなど、さまざまな開発段階にわたる信頼できる連合学習に脆弱性をもたらす脅威を概説します。
本稿では,最も適切な防衛手法の選択を導くために,TFL(Trustworthy FL)の各側面を実現するための具体的な技術的解決策について議論する。
われわれのアプローチは、TFLを法的な視点から論じるか、高レベルの非技術的な視点でFLを提示する以前の研究とは異なる。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Trustworthy Federated Learning: Privacy, Security, and Beyond [37.495790989584584]
Federated Learning (FL)は、生データを転送することなく、分散データソース間で協調的なモデルトレーニングを促進することで、問題に対処する。
FLが抱えるセキュリティとプライバシに関する広範な調査を行い、通信リンクの脆弱性とサイバー脅威の可能性を明らかにします。
FLフレームワーク内で発生する複雑なセキュリティ課題を特定し、セキュアで効率的なFLシステムの開発に寄与することを目的としている。
論文 参考訳(メタデータ) (2024-11-03T14:18:01Z) - Privacy in Federated Learning [0.0]
フェデレートラーニング(FL)は、分散機械学習における重要な進歩である。
この章では、データ再構成のリスク、モデル反転攻撃、メンバシップ推論など、FLの中核的なプライバシに関する懸念を掘り下げている。
モデル精度とプライバシのトレードオフを調べ、実践的な実装においてこれらの要因のバランスをとることの重要性を強調します。
論文 参考訳(メタデータ) (2024-08-12T18:41:58Z) - Federated Learning with New Knowledge: Fundamentals, Advances, and
Futures [69.8830772538421]
本稿では,フェデレートラーニング(FL)における新しい知識の源泉を体系的に定義する。
本研究は,新たな知識の到来時期と形態が定式化過程に及ぼす影響について検討する。
シナリオの設定,効率,セキュリティなど,さまざまな要因を考慮し,FLの今後の方向性を新たな知識で論じる。
論文 参考訳(メタデータ) (2024-02-03T21:29:31Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Security and Privacy Issues of Federated Learning [0.0]
フェデレートラーニング(FL)は、データのプライバシと機密性に対処するための有望なアプローチとして登場した。
本稿では,各種機械学習モデルを対象としたフェデレートラーニング(FL)におけるセキュリティとプライバシの包括的分類について述べる。
論文 参考訳(メタデータ) (2023-07-22T22:51:07Z) - Trustworthy Federated Learning: A Survey [0.5089078998562185]
人工知能(AI)分野において、フェデレートラーニング(FL)が大きな進歩を遂げている。
我々は、Trustworthy FLの現状を概観し、既存のソリューションとTrustworthyに関連する明確に定義された柱を探求する。
本稿では,解釈可能性,公正性,セキュリティとプライバシの3つの柱を含む分類法を提案する。
論文 参考訳(メタデータ) (2023-05-19T09:11:26Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。