論文の概要: Linkage on Security, Privacy and Fairness in Federated Learning: New Balances and New Perspectives
- arxiv url: http://arxiv.org/abs/2406.10884v1
- Date: Sun, 16 Jun 2024 10:31:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 20:12:13.998135
- Title: Linkage on Security, Privacy and Fairness in Federated Learning: New Balances and New Perspectives
- Title(参考訳): フェデレーションラーニングにおけるセキュリティ、プライバシ、公正性に関するリンク:新たなバランスと新たな視点
- Authors: Linlin Wang, Tianqing Zhu, Wanlei Zhou, Philip S. Yu,
- Abstract要約: この調査は、フェデレートラーニングにおけるプライバシー、セキュリティ、公平性の問題に関する包括的な説明を提供する。
プライバシーと公平性と、セキュリティと共有の間にはトレードオフがある、と私たちは主張する。
- 参考スコア(独自算出の注目度): 48.48294460952039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is fast becoming a popular paradigm for applications involving mobile devices, banking systems, healthcare, and IoT systems. Hence, over the past five years, researchers have undertaken extensive studies on the privacy leaks, security threats, and fairness associated with these emerging models. For the most part, these three critical concepts have been studied in isolation; however, recent research has revealed that there may be an intricate interplay between them. For instance, some researchers have discovered that pursuing fairness may compromise privacy, or that efforts to enhance security can impact fairness. These emerging insights shed light on the fundamental connections between privacy, security, and fairness within federated learning, and, by delving deeper into these interconnections, we may be able to significantly augment research and development across the field. Consequently, the aim of this survey is to offer comprehensive descriptions of the privacy, security, and fairness issues in federated learning. Moreover, we analyze the complex relationships between these three dimensions of cyber safety and pinpoint the fundamental elements that influence each of them. We contend that there exists a trade-off between privacy and fairness and between security and gradient sharing. On this basis, fairness can function as a bridge between privacy and security to build models that are either more secure or more private. Building upon our observations, we identify the trade-offs between privacy and fairness and between security and fairness within the context of federated learning. The survey then concludes with promising directions for future research in this vanguard field.
- Abstract(参考訳): フェデレーション学習は、モバイルデバイス、銀行システム、ヘルスケア、IoTシステムを含むアプリケーションにとって、急速にポピュラーなパラダイムになりつつある。
そのため、過去5年間で、研究者たちは、これらの新興モデルに関連するプライバシーの漏洩、セキュリティの脅威、公正性に関する広範な研究を調査してきた。
これら3つの重要な概念は独立して研究されてきたが、近年の研究により、両者の間には複雑な相互作用があることが判明している。
例えば、公正性追求がプライバシーを損なう可能性があることや、セキュリティを強化する努力が公正性に影響を与えることを発見した研究者もいる。
これらの新たな洞察は、フェデレートされた学習におけるプライバシ、セキュリティ、公平性の基本的なつながりに光を当て、これらの相互関係を深く掘り下げることで、この分野における研究と開発を著しく拡大することができるかもしれない。
本調査の目的は,フェデレートラーニングにおけるプライバシー,セキュリティ,公平性の問題を包括的に記述することである。
さらに,サイバー安全性の3次元間の複雑な関係を解析し,それらに影響を及ぼす基本的な要素を特定する。
プライバシーと公平性と、セキュリティとグラデーションの共有との間にはトレードオフがある、と我々は主張する。
このベースでフェアネスは、プライバシとセキュリティの間のブリッジとして機能し、よりセキュアまたはよりプライベートなモデルを構築することができる。
私たちの観察に基づいて、我々はプライバシと公正性と、フェデレーション学習の文脈におけるセキュリティと公正との間のトレードオフを特定します。
この調査は、この先駆的分野における将来の研究のための有望な方向性で締めくくられる。
関連論文リスト
- PFGuard: A Generative Framework with Privacy and Fairness Safeguards [14.504462873398461]
PFGuardは、プライバシと公平性保護を備えた生成フレームワークである。
公正なトレーニング段階とプライベートなトレーニング段階の間のプライバシーと公正の対立のバランスを取る。
実験の結果,PFGuardは高次元データから合成データを生成することに成功した。
論文 参考訳(メタデータ) (2024-10-03T06:37:16Z) - Privacy in Federated Learning [0.0]
フェデレートラーニング(FL)は、分散機械学習における重要な進歩である。
この章では、データ再構成のリスク、モデル反転攻撃、メンバシップ推論など、FLの中核的なプライバシに関する懸念を掘り下げている。
モデル精度とプライバシのトレードオフを調べ、実践的な実装においてこれらの要因のバランスをとることの重要性を強調します。
論文 参考訳(メタデータ) (2024-08-12T18:41:58Z) - Private Knowledge Sharing in Distributed Learning: A Survey [50.51431815732716]
人工知能の台頭は多くの産業に革命をもたらし、社会の働き方を変えた。
異なるエンティティが分散または所有する学習プロセスにおいて、情報を活用することが不可欠である。
現代のデータ駆動サービスは、分散知識エンティティを結果に統合するために開発されています。
論文 参考訳(メタデータ) (2024-02-08T07:18:23Z) - Holistic Survey of Privacy and Fairness in Machine Learning [10.399352534861292]
プライバシと公正性は、責任ある人工知能(AI)と信頼できる機械学習(ML)の重要な柱である
かなりの関心があるにもかかわらず、これらの2つの目的がMLモデルにどのように同時に統合できるかを解明するために、より詳細な研究が必要である。
我々は、教師なし、教師なし、半教師なし、強化学習を含む、MLにおけるプライバシーと公正性の徹底的なレビューを提供する。
論文 参考訳(メタデータ) (2023-07-28T23:39:29Z) - A Comprehensive Survey of Forgetting in Deep Learning Beyond Continual Learning [58.107474025048866]
蓄積とは、以前に獲得した知識の喪失または劣化を指す。
フォッテッティングは、深層学習における様々な研究領域でよく見られる現象である。
論文 参考訳(メタデータ) (2023-07-16T16:27:58Z) - Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off [58.204074436129716]
フェデレートラーニング(FL)は近年ホットな話題となっている。
2つの重要な倫理的概念として、プライバシと公平性の相互作用は比較的研究されていない。
論文 参考訳(メタデータ) (2023-06-25T04:38:19Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - New Challenges in Reinforcement Learning: A Survey of Security and
Privacy [26.706957408693363]
強化学習(Reinforcement Learning, RL)は、AIの最も重要な分野のひとつ。
RLは医療、データ市場、自動運転、ロボット工学など、さまざまな分野で広く採用されている。
これらのアプリケーションやシステムは、セキュリティやプライバシ攻撃に弱いことが示されている。
論文 参考訳(メタデータ) (2022-12-31T12:30:43Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。