論文の概要: A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy
- arxiv url: http://arxiv.org/abs/2302.10637v1
- Date: Tue, 21 Feb 2023 12:52:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 15:21:24.419644
- Title: A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy
- Title(参考訳): セキュリティ,ロバスト性,プライバシを視点とした信頼できるフェデレーション学習に関する調査
- Authors: Yifei Zhang, Dun Zeng, Jinglong Luo, Zenglin Xu, Irwin King
- Abstract要約: Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
- 参考スコア(独自算出の注目度): 47.89042524852868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trustworthy artificial intelligence (AI) technology has revolutionized daily
life and greatly benefited human society. Among various AI technologies,
Federated Learning (FL) stands out as a promising solution for diverse
real-world scenarios, ranging from risk evaluation systems in finance to
cutting-edge technologies like drug discovery in life sciences. However,
challenges around data isolation and privacy threaten the trustworthiness of FL
systems. Adversarial attacks against data privacy, learning algorithm
stability, and system confidentiality are particularly concerning in the
context of distributed training in federated learning. Therefore, it is crucial
to develop FL in a trustworthy manner, with a focus on security, robustness,
and privacy. In this survey, we propose a comprehensive roadmap for developing
trustworthy FL systems and summarize existing efforts from three key aspects:
security, robustness, and privacy. We outline the threats that pose
vulnerabilities to trustworthy federated learning across different stages of
development, including data processing, model training, and deployment. To
guide the selection of the most appropriate defense methods, we discuss
specific technical solutions for realizing each aspect of Trustworthy FL (TFL).
Our approach differs from previous work that primarily discusses TFL from a
legal perspective or presents FL from a high-level, non-technical viewpoint.
- Abstract(参考訳): 信頼できる人工知能(AI)技術は、日常生活に革命をもたらし、人間の社会に大きな利益をもたらした。
さまざまなai技術の中で、フェデレーション学習(federated learning, fl)は、金融におけるリスク評価システムから、生命科学における薬物発見のような最先端技術まで、さまざまな現実のシナリオに対する有望なソリューションである。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
データプライバシに対する敵意攻撃、学習アルゴリズムの安定性、システムの機密性は、連合学習における分散トレーニングの文脈において特に関係している。
したがって、セキュリティ、堅牢性、プライバシに重点を置いて、信頼できる方法でflを開発することが不可欠である。
本稿では,信頼性の高いFLシステムを開発するための包括的なロードマップを提案し,セキュリティ,堅牢性,プライバシの3つの重要な側面から既存の取り組みを要約する。
私たちは、データ処理、モデルトレーニング、デプロイメントなど、さまざまな開発段階にわたる信頼できる連合学習に脆弱性をもたらす脅威を概説します。
本稿では,最も適切な防衛手法の選択を導くために,TFL(Trustworthy FL)の各側面を実現するための具体的な技術的解決策について議論する。
われわれのアプローチは、TFLを法的な視点から論じるか、高レベルの非技術的な視点でFLを提示する以前の研究とは異なる。
関連論文リスト
- Enhancing Data Provenance and Model Transparency in Federated Learning
Systems -- A Database Approach [1.2180726230978978]
Federated Learning (FL)は、分散型エッジデバイス間で機械学習モデルをトレーニングするための有望なパラダイムを提供する。
これらの分散環境におけるデータの完全性とトレーサビリティの確保は、依然として重要な課題である。
FLシステムにおけるデータプロファイランスとモデルの透明性を高めるための最初のアプローチの1つを提案する。
論文 参考訳(メタデータ) (2024-03-03T09:08:41Z) - Federated Learning with New Knowledge: Fundamentals, Advances, and
Futures [69.8830772538421]
本稿では,フェデレートラーニング(FL)における新しい知識の源泉を体系的に定義する。
本研究は,新たな知識の到来時期と形態が定式化過程に及ぼす影響について検討する。
シナリオの設定,効率,セキュリティなど,さまざまな要因を考慮し,FLの今後の方向性を新たな知識で論じる。
論文 参考訳(メタデータ) (2024-02-03T21:29:31Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Security and Privacy Issues of Federated Learning [0.0]
フェデレートラーニング(FL)は、データのプライバシと機密性に対処するための有望なアプローチとして登場した。
本稿では,各種機械学習モデルを対象としたフェデレートラーニング(FL)におけるセキュリティとプライバシの包括的分類について述べる。
論文 参考訳(メタデータ) (2023-07-22T22:51:07Z) - Trustworthy Federated Learning: A Survey [0.5089078998562185]
人工知能(AI)分野において、フェデレートラーニング(FL)が大きな進歩を遂げている。
我々は、Trustworthy FLの現状を概観し、既存のソリューションとTrustworthyに関連する明確に定義された柱を探求する。
本稿では,解釈可能性,公正性,セキュリティとプライバシの3つの柱を含む分類法を提案する。
論文 参考訳(メタデータ) (2023-05-19T09:11:26Z) - Federated Learning Attacks and Defenses: A Survey [6.980116513609015]
本稿では,現在のFLシステムの攻撃と対応する防御を系統的に分類する。
現在の3つの分類基準、すなわち機械学習の3つの段階、フェデレーション学習における3つの異なる役割、およびプライバシ保護に関するCIAのガイドラインの観点から、我々は、機械学習のトレーニング段階と予測段階に応じて、攻撃アプローチを2つのカテゴリに分割する。
論文 参考訳(メタデータ) (2022-11-27T22:07:07Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。