論文の概要: Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off
- arxiv url: http://arxiv.org/abs/2306.14123v1
- Date: Sun, 25 Jun 2023 04:38:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 16:43:35.107929
- Title: Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off
- Title(参考訳): 連合学習におけるプライバシーと公平性--トレードオフの観点から
- Authors: Huiqiang Chen, Tianqing Zhu, Tao Zhang, Wanlei Zhou, Philip S. Yu
- Abstract要約: フェデレートラーニング(FL)は近年ホットな話題となっている。
2つの重要な倫理的概念として、プライバシと公平性の相互作用は比較的研究されていない。
- 参考スコア(独自算出の注目度): 58.204074436129716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has been a hot topic in recent years. Ever since it
was introduced, researchers have endeavored to devise FL systems that protect
privacy or ensure fair results, with most research focusing on one or the
other. As two crucial ethical notions, the interactions between privacy and
fairness are comparatively less studied. However, since privacy and fairness
compete, considering each in isolation will inevitably come at the cost of the
other. To provide a broad view of these two critical topics, we presented a
detailed literature review of privacy and fairness issues, highlighting unique
challenges posed by FL and solutions in federated settings. We further
systematically surveyed different interactions between privacy and fairness,
trying to reveal how privacy and fairness could affect each other and point out
new research directions in fair and private FL.
- Abstract(参考訳): 近年,連合学習(fl)がホットな話題となっている。
導入以来、研究者はプライバシーを保護したり、公正な結果を保証するflシステムを考案しようと努力してきた。
2つの重要な倫理的概念として、プライバシーと公平性の相互作用は比較的研究されていない。
しかし、プライバシと公平性は競合するので、個別に考えると必然的に他方のコストがかかる。
これら2つの重要なトピックを広く見ていくために,プライバシと公平性の問題に関する詳細な文献レビューを行い,flが提起するユニークな課題と,フェデレーション設定におけるソリューションに注目した。
さらに,プライバシとフェアネスの相互作用を体系的に調査し,プライバシとフェアネスが相互にどのように影響するかを明らかにし,フェアとプライベートのflにおける新たな研究方向性を指摘する。
関連論文リスト
- Toward the Tradeoffs between Privacy, Fairness and Utility in Federated
Learning [10.473137837891162]
Federated Learning(FL)は、新しいプライバシー保護分散機械学習パラダイムである。
本稿では,クライアントモデルのプライバシを保護するために,プライバシ保護フェアネスFL法を提案する。
プライバシーと公正性と実用性の関係を結論付け、これらの間にはトレードオフがある。
論文 参考訳(メタデータ) (2023-11-30T02:19:35Z) - Federated Learning for Generalization, Robustness, Fairness: A Survey
and Benchmark [55.898771405172155]
フェデレートラーニングは、異なる当事者間のプライバシー保護コラボレーションのための有望なパラダイムとして登場した。
我々は,連合学習研究の重要かつ最近の展開を体系的に概観する。
論文 参考訳(メタデータ) (2023-11-12T06:32:30Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models
via Contextual Integrity Theory [86.8514623654506]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Holistic Survey of Privacy and Fairness in Machine Learning [10.399352534861292]
プライバシと公正性は、責任ある人工知能(AI)と信頼できる機械学習(ML)の重要な柱である
かなりの関心があるにもかかわらず、これらの2つの目的がMLモデルにどのように同時に統合できるかを解明するために、より詳細な研究が必要である。
我々は、教師なし、教師なし、半教師なし、強化学習を含む、MLにおけるプライバシーと公正性の徹底的なレビューを提供する。
論文 参考訳(メタデータ) (2023-07-28T23:39:29Z) - Fair Differentially Private Federated Learning Framework [0.0]
Federated Learning(FL)は、参加者が個々のデータセットを共有することなく、協力し、共有モデルをトレーニングすることのできる、分散機械学習戦略である。
FLではプライバシと公平性が重要な考慮事項である。
本稿では、検証データなしで公正なグローバルモデルを作成し、グローバルなプライベートディファレンシャルモデルを作成するという課題に対処する枠組みを提案する。
論文 参考訳(メタデータ) (2023-05-23T09:58:48Z) - Evaluating Trade-offs in Computer Vision Between Attribute Privacy,
Fairness and Utility [9.929258066313627]
本稿では,コンピュータビジョンにおけるユーティリティ,フェアネス,属性プライバシのトレードオフについて検討する。
好みの異なる様々なモデルを作成するために、フェアネスとプライバシに関連する属性に干渉する逆法を用いる。
論文 参考訳(メタデータ) (2023-02-15T19:20:51Z) - Differential Privacy and Fairness in Decisions and Learning Tasks: A
Survey [50.90773979394264]
プライバシーと公正が目標と一致したり、対照的になったりした条件をレビューする。
意思決定問題や学習タスクにおいて、DPが偏見や不公平を悪化させる理由と理由を分析します。
論文 参考訳(メタデータ) (2022-02-16T16:50:23Z) - Federated Learning Meets Fairness and Differential Privacy [12.033944769247961]
本研究は,3つの尺度を同時に取り入れた倫理的フェデレーション学習モデルを提案する。
アダルト、バンク、オランダのデータセットの実験では、正確性、公平性、プライバシの間の"経験的な相互作用"が強調されている。
論文 参考訳(メタデータ) (2021-08-23T04:59:16Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。