論文の概要: "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning
- arxiv url: http://arxiv.org/abs/2206.12183v1
- Date: Fri, 24 Jun 2022 09:46:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-27 14:56:58.626936
- Title: "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning
- Title(参考訳): 「計測できないものを修正できない」--フェデレーション学習における人口統計学的パフォーマンス格差の個人的測定
- Authors: Marc Juarez and Aleksandra Korolova
- Abstract要約: フェデレートされた学習は、デバイスが機械学習モデルのトレーニングに協力することを可能にする。
フェデレートラーニングで訓練されたモデルが、異なる人口集団に対して異なるパフォーマンスを示すのではないかという懸念が高まっている。
本研究では,ユーザのグループメンバーシップのプライバシを保護しながら,このようなパフォーマンス格差を計測できる可能性を検討する。
- 参考スコア(独自算出の注目度): 78.70083858195906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning allows many devices to collaborate in the training of
machine learning models. As in traditional machine learning, there is a growing
concern that models trained with federated learning may exhibit disparate
performance for different demographic groups. Existing solutions to measure and
ensure equal model performance across groups require access to information
about group membership, but this access is not always available or desirable,
especially under the privacy aspirations of federated learning. We study the
feasibility of measuring such performance disparities while protecting the
privacy of the user's group membership and the federated model's performance on
the user's data. Protecting both is essential for privacy, because they may be
correlated, and thus learning one may reveal the other. On the other hand, from
the utility perspective, the privacy-preserved data should maintain the
correlation to ensure the ability to perform accurate measurements of the
performance disparity. We achieve both of these goals by developing locally
differentially private mechanisms that preserve the correlations between group
membership and model performance. To analyze the effectiveness of the
mechanisms, we bound their error in estimating the disparity when optimized for
a given privacy budget, and validate these bounds on synthetic data. Our
results show that the error rapidly decreases for realistic numbers of
participating clients, demonstrating that, contrary to what prior work
suggested, protecting the privacy of protected attributes is not necessarily in
conflict with identifying disparities in the performance of federated models.
- Abstract(参考訳): 連合学習は、多くのデバイスが機械学習モデルのトレーニングで協力できるようにする。
従来の機械学習と同様に、フェデレーション学習でトレーニングされたモデルが異なるグループで異なるパフォーマンスを示す可能性があるという懸念が高まっている。
グループ間で平等なモデルパフォーマンスを計測および保証するための既存のソリューションは、グループメンバーシップに関する情報にアクセスする必要があるが、このアクセスは、特に連合学習のプライバシー願望の下で、常に利用可能または望ましいとは限らない。
本研究では,ユーザのグループメンバシップのプライバシと,ユーザのデータに対するフェデレーションモデルのパフォーマンスを保護しつつ,パフォーマンスの格差を計測する可能性について検討する。
両者の保護は、相互に関連付けられる可能性があるため、プライバシに不可欠であり、一方を学習することで他方が明らかになる可能性がある。
一方、実用の観点からは、プライバシ保護されたデータは相関を保ち、パフォーマンスの相違を正確に測定する能力を確保する必要がある。
グループメンバシップとモデルパフォーマンスの相関を保ちながら,局所的にプライベートなメカニズムを開発することで,これらの目標を両立させる。
このメカニズムの有効性を分析するために,与えられたプライバシー予算に最適化された場合の差を推定する誤差を限定し,それらの境界を合成データ上で検証した。
本結果から, クライアントの現実的な数のエラーは急速に減少し, 先行研究とは対照的に, 保護属性のプライバシ保護は, フェデレートされたモデルの性能の相違に必ずしも矛盾しないことを示した。
関連論文リスト
- Analysing Fairness of Privacy-Utility Mobility Models [11.387235721659378]
この研究は、人間の移動性のために明示的に設計された公正度メトリクスのセットを定義する。
GANと表現学習に依存した2つの最先端プライバシ保護モデルの公正性を検証し,データ共有におけるユーザの再識別率の低減を図る。
以上の結果から,両モデルがグループフェアネスを保証しているが,個々のフェアネス基準に反し,非常に類似したトラジェクトリを持つユーザに対して,異なるプライバシ向上が認められたことが示唆された。
論文 参考訳(メタデータ) (2023-04-10T11:09:18Z) - Outlier-Robust Group Inference via Gradient Space Clustering [50.87474101594732]
既存のメソッドは、最悪のグループのパフォーマンスを改善することができるが、それらは、しばしば高価で入手できないグループアノテーションを必要とする。
モデルパラメータの勾配の空間にデータをクラスタリングすることで,アウトレーヤの存在下でグループアノテーションを学習する問題に対処する。
そこで我々は,DBSCANのような標準クラスタリング手法に適合するように,マイノリティグループや外れ値に関する情報を保存しながら,勾配空間内のデータがより単純な構造を持つことを示す。
論文 参考訳(メタデータ) (2022-10-13T06:04:43Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - The Impact of Differential Privacy on Group Disparity Mitigation [28.804933301007644]
差分プライバシーが4つのタスクの公平性に与える影響を評価する。
私たちは、経験的リスク最小化を伴う$(varepsilon,delta)$-differentially privateモデルをトレーニングします。
基本設定におけるグループ間性能差は,差分プライバシが増加することが判明した。
しかし、差分プライバシーは、ロバストな設定におけるグループ間のパフォーマンス差を減少させる。
論文 参考訳(メタデータ) (2022-03-05T13:55:05Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Improving Fairness and Privacy in Selection Problems [21.293367386282902]
教師付き学習モデルの公平性とプライバシーの両方を改善するための後処理のステップとして、微分的プライベート指数関数機構を使用することの可能性を検討する。
この指数関数的メカニズムは, プライバシと公平性の両方を向上し, ポストプロセッシングを伴わないモデルと比較して, 精度がわずかに低下することを示した。
論文 参考訳(メタデータ) (2020-12-07T15:55:28Z) - On the Privacy Risks of Algorithmic Fairness [9.429448411561541]
我々は、グループフェアネスのプライバシーリスクを、メンバーシップ推論攻撃のレンズを通して調査する。
公平さはプライバシーの犠牲であり、このコストは平等に分配されない。
論文 参考訳(メタデータ) (2020-11-07T09:15:31Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。