論文の概要: Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off
- arxiv url: http://arxiv.org/abs/2306.14123v1
- Date: Sun, 25 Jun 2023 04:38:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 16:43:35.107929
- Title: Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off
- Title(参考訳): 連合学習におけるプライバシーと公平性--トレードオフの観点から
- Authors: Huiqiang Chen, Tianqing Zhu, Tao Zhang, Wanlei Zhou, Philip S. Yu
- Abstract要約: フェデレートラーニング(FL)は近年ホットな話題となっている。
2つの重要な倫理的概念として、プライバシと公平性の相互作用は比較的研究されていない。
- 参考スコア(独自算出の注目度): 58.204074436129716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has been a hot topic in recent years. Ever since it
was introduced, researchers have endeavored to devise FL systems that protect
privacy or ensure fair results, with most research focusing on one or the
other. As two crucial ethical notions, the interactions between privacy and
fairness are comparatively less studied. However, since privacy and fairness
compete, considering each in isolation will inevitably come at the cost of the
other. To provide a broad view of these two critical topics, we presented a
detailed literature review of privacy and fairness issues, highlighting unique
challenges posed by FL and solutions in federated settings. We further
systematically surveyed different interactions between privacy and fairness,
trying to reveal how privacy and fairness could affect each other and point out
new research directions in fair and private FL.
- Abstract(参考訳): 近年,連合学習(fl)がホットな話題となっている。
導入以来、研究者はプライバシーを保護したり、公正な結果を保証するflシステムを考案しようと努力してきた。
2つの重要な倫理的概念として、プライバシーと公平性の相互作用は比較的研究されていない。
しかし、プライバシと公平性は競合するので、個別に考えると必然的に他方のコストがかかる。
これら2つの重要なトピックを広く見ていくために,プライバシと公平性の問題に関する詳細な文献レビューを行い,flが提起するユニークな課題と,フェデレーション設定におけるソリューションに注目した。
さらに,プライバシとフェアネスの相互作用を体系的に調査し,プライバシとフェアネスが相互にどのように影響するかを明らかにし,フェアとプライベートのflにおける新たな研究方向性を指摘する。
関連論文リスト
- A Multivocal Literature Review on Privacy and Fairness in Federated Learning [1.6124402884077915]
フェデレーション学習は、データ共有の必要性を排除することによって、AIアプリケーションに革命をもたらす手段を提供する。
最近の研究では、プライバシと公平性の間に固有の緊張が示されています。
プライバシーと公正性の関係は無視され、現実世界のアプリケーションにとって重大なリスクをもたらしている、と我々は主張する。
論文 参考訳(メタデータ) (2024-08-16T11:15:52Z) - Linkage on Security, Privacy and Fairness in Federated Learning: New Balances and New Perspectives [48.48294460952039]
この調査は、フェデレートラーニングにおけるプライバシー、セキュリティ、公平性の問題に関する包括的な説明を提供する。
プライバシーと公平性と、セキュリティと共有の間にはトレードオフがある、と私たちは主張する。
論文 参考訳(メタデータ) (2024-06-16T10:31:45Z) - Toward the Tradeoffs between Privacy, Fairness and Utility in Federated
Learning [10.473137837891162]
Federated Learning(FL)は、新しいプライバシー保護分散機械学習パラダイムである。
本稿では,クライアントモデルのプライバシを保護するために,プライバシ保護フェアネスFL法を提案する。
プライバシーと公正性と実用性の関係を結論付け、これらの間にはトレードオフがある。
論文 参考訳(メタデータ) (2023-11-30T02:19:35Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Evaluating Trade-offs in Computer Vision Between Attribute Privacy,
Fairness and Utility [9.929258066313627]
本稿では,コンピュータビジョンにおけるユーティリティ,フェアネス,属性プライバシのトレードオフについて検討する。
好みの異なる様々なモデルを作成するために、フェアネスとプライバシに関連する属性に干渉する逆法を用いる。
論文 参考訳(メタデータ) (2023-02-15T19:20:51Z) - Unraveling Privacy Risks of Individual Fairness in Graph Neural Networks [66.0143583366533]
グラフニューラルネットワーク(GNN)は、その拡張現実の応用により、大きな注目を集めている。
信頼できるGNNを構築するためには、公平性とプライバシという2つの側面が重要な考慮事項として浮上している。
これまでの研究では、GNNの公平性とプライバシの側面を別々に検討し、GNNのパフォーマンスとのトレードオフを明らかにしている。
しかし、この2つの側面の相互作用は未解明のままである。
論文 参考訳(メタデータ) (2023-01-30T14:52:23Z) - Differential Privacy and Fairness in Decisions and Learning Tasks: A
Survey [50.90773979394264]
プライバシーと公正が目標と一致したり、対照的になったりした条件をレビューする。
意思決定問題や学習タスクにおいて、DPが偏見や不公平を悪化させる理由と理由を分析します。
論文 参考訳(メタデータ) (2022-02-16T16:50:23Z) - Federated Learning Meets Fairness and Differential Privacy [12.033944769247961]
本研究は,3つの尺度を同時に取り入れた倫理的フェデレーション学習モデルを提案する。
アダルト、バンク、オランダのデータセットの実験では、正確性、公平性、プライバシの間の"経験的な相互作用"が強調されている。
論文 参考訳(メタデータ) (2021-08-23T04:59:16Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。