論文の概要: Empirical Analysis of Privacy-Fairness-Accuracy Trade-offs in Federated Learning: A Step Towards Responsible AI
- arxiv url: http://arxiv.org/abs/2503.16233v1
- Date: Thu, 20 Mar 2025 15:31:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:34:23.768904
- Title: Empirical Analysis of Privacy-Fairness-Accuracy Trade-offs in Federated Learning: A Step Towards Responsible AI
- Title(参考訳): フェデレーションラーニングにおけるプライバシ-フェアネス-正確性トレードオフの実証分析 : 責任あるAIへの一歩
- Authors: Dawood Wasif, Dian Chen, Sindhuja Madabushi, Nithin Alluru, Terrence J. Moore, Jin-Hee Cho,
- Abstract要約: フェデレートラーニング(FL)は、データのプライバシを維持しながら機械学習を可能にするが、プライバシ保護(PP)と公正性のバランスをとるのに苦労する。
DPはプライバシーを向上するが、計算オーバーヘッドを犠牲にしてHEとSMCの公平性を懸念する一方で、不足しているグループに不均等に影響を及ぼす可能性がある。
我々の発見は、文脈に依存したトレードオフを強調し、責任あるAI原則を守り、公正性、プライバシー、公平な現実世界のアプリケーションを保証するFLシステムを設計するためのガイドラインを提供する。
- 参考スコア(独自算出の注目度): 6.671649946926508
- License:
- Abstract: Federated Learning (FL) enables collaborative machine learning while preserving data privacy but struggles to balance privacy preservation (PP) and fairness. Techniques like Differential Privacy (DP), Homomorphic Encryption (HE), and Secure Multi-Party Computation (SMC) protect sensitive data but introduce trade-offs. DP enhances privacy but can disproportionately impact underrepresented groups, while HE and SMC mitigate fairness concerns at the cost of computational overhead. This work explores the privacy-fairness trade-offs in FL under IID (Independent and Identically Distributed) and non-IID data distributions, benchmarking q-FedAvg, q-MAML, and Ditto on diverse datasets. Our findings highlight context-dependent trade-offs and offer guidelines for designing FL systems that uphold responsible AI principles, ensuring fairness, privacy, and equitable real-world applications.
- Abstract(参考訳): フェデレートラーニング(FL)は、データのプライバシを維持しながら協調的な機械学習を可能にするが、プライバシ保護(PP)と公正性のバランスをとるのに苦労する。
差分プライバシー(DP)、同型暗号化(HE)、セキュアマルチパーティ計算(SMC)といった技術は機密データを保護するがトレードオフを導入する。
DPはプライバシーを向上するが、不足しているグループに不均等に影響を与え、HEとSMCは計算オーバーヘッドを犠牲にして公正性への懸念を軽減する。
IID(Independent and Identically Distributed)と非IIDデータディストリビューションの下でのFLのプライバシ・フェアネスのトレードオフを調査し、さまざまなデータセット上でq-FedAvg、q-MAML、Dittoをベンチマークする。
我々の発見は、文脈に依存したトレードオフを強調し、責任あるAI原則を守り、公正性、プライバシー、公平な現実世界のアプリケーションを保証するFLシステムを設計するためのガイドラインを提供する。
関連論文リスト
- SAFES: Sequential Privacy and Fairness Enhancing Data Synthesis for Responsible AI [3.0445044300235535]
SAFES(Sequential PrivAcy and Fairness Enhancing data synthesis procedure)を紹介する。
適切なプライバシ損失を得るために、SAFESの生成した合成データは、比較的実用性損失の少ないフェアネス指標を著しく改善した。
論文 参考訳(メタデータ) (2024-11-14T04:36:12Z) - FedFDP: Fairness-Aware Federated Learning with Differential Privacy [28.58589747796768]
Federated Learning(FL)は、データサイロの課題に対処するために設計された、新興の機械学習パラダイムである。
公平性とデータプライバシに関する永続的な問題に対処するため,FedFairというフェアネスを考慮したFLアルゴリズムを提案する。
FedFairをベースとした差分プライバシーを導入し、公正性、プライバシ保護、モデルパフォーマンスのトレードオフに対処するFedFDPアルゴリズムを作成します。
論文 参考訳(メタデータ) (2024-02-25T08:35:21Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Fair Differentially Private Federated Learning Framework [0.0]
Federated Learning(FL)は、参加者が個々のデータセットを共有することなく、協力し、共有モデルをトレーニングすることのできる、分散機械学習戦略である。
FLではプライバシと公平性が重要な考慮事項である。
本稿では、検証データなしで公正なグローバルモデルを作成し、グローバルなプライベートディファレンシャルモデルを作成するという課題に対処する枠組みを提案する。
論文 参考訳(メタデータ) (2023-05-23T09:58:48Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Privacy-Preserving Joint Edge Association and Power Optimization for the
Internet of Vehicles via Federated Multi-Agent Reinforcement Learning [74.53077322713548]
プライバシ保護型共同エッジアソシエーションと電力配分問題について検討する。
提案されたソリューションは、最先端のソリューションよりも高いプライバシレベルを維持しながら、魅力的なトレードオフにぶつかる。
論文 参考訳(メタデータ) (2023-01-26T10:09:23Z) - PrivFairFL: Privacy-Preserving Group Fairness in Federated Learning [12.767527195281042]
フェデレートラーニング(FL)におけるグループフェアネスは、偏見を緩和するためには、本質的にすべてのクライアントのセンシティブな属性値を使用する必要があるため、難しい。
FLとセキュアマルチパーティ計算(MPC)と差分プライバシー(DP)を組み合わせることで、FLにおける公平性とプライバシの対立を解消できることを示す。
そこで本研究では,クロスデバイスFLにおけるグループフェアMLモデルを,完全かつ正式なプライバシ保証の下でトレーニングする方法を提案する。
論文 参考訳(メタデータ) (2022-05-23T19:26:12Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Privacy Preservation in Federated Learning: An insightful survey from
the GDPR Perspective [10.901568085406753]
この記事は、フェデレーテッドラーニングに使用できる最先端のプライバシー技術に関する調査に特化している。
近年の研究では、FLにおけるデータの保持と計算は、プライバシ保証者にとって不十分であることが示されている。
これは、FLシステム内のパーティ間で交換されるMLモデルパラメータが、いくつかのプライバシ攻撃で悪用されるためである。
論文 参考訳(メタデータ) (2020-11-10T21:41:25Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。