論文の概要: "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning
- arxiv url: http://arxiv.org/abs/2206.12183v2
- Date: Wed, 11 Jan 2023 12:05:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 09:27:50.076201
- Title: "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning
- Title(参考訳): 「計測できないものを修正できない」--フェデレーション学習における人口統計学的パフォーマンス格差の個人的測定
- Authors: Marc Juarez and Aleksandra Korolova
- Abstract要約: グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
- 参考スコア(独自算出の注目度): 78.70083858195906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As in traditional machine learning models, models trained with federated
learning may exhibit disparate performance across demographic groups. Model
holders must identify these disparities to mitigate undue harm to the groups.
However, measuring a model's performance in a group requires access to
information about group membership which, for privacy reasons, often has
limited availability. We propose novel locally differentially private
mechanisms to measure differences in performance across groups while protecting
the privacy of group membership. To analyze the effectiveness of the
mechanisms, we bound their error in estimating a disparity when optimized for a
given privacy budget. Our results show that the error rapidly decreases for
realistic numbers of participating clients, demonstrating that, contrary to
what prior work suggested, protecting privacy is not necessarily in conflict
with identifying performance disparities of federated models.
- Abstract(参考訳): 従来の機械学習モデルと同様に、連合学習で訓練されたモデルは、集団間で異なるパフォーマンスを示す可能性がある。
モデルホルダーは、グループに対する不適切な損害を軽減するためにこれらの不一致を特定する必要がある。
しかしながら、グループ内のモデルのパフォーマンスを測定するには、プライバシー上の理由から可用性が限られているグループメンバーシップに関する情報にアクセスする必要がある。
グループメンバシップのプライバシを保護しつつ,グループ間のパフォーマンスの差を計測する,ローカルに異なるプライベートなメカニズムを提案する。
メカニズムの有効性を解析するために、所定のプライバシー予算に最適化された場合の相違を推定する際の誤差を限定する。
その結果、実際のクライアント数に対してエラーは急速に減少し、以前の研究とは対照的に、プライバシの保護は必ずしもフェデレーションモデルのパフォーマンス格差の識別と矛盾するものではないことが示された。
関連論文リスト
- Analysing Fairness of Privacy-Utility Mobility Models [11.387235721659378]
この研究は、人間の移動性のために明示的に設計された公正度メトリクスのセットを定義する。
GANと表現学習に依存した2つの最先端プライバシ保護モデルの公正性を検証し,データ共有におけるユーザの再識別率の低減を図る。
以上の結果から,両モデルがグループフェアネスを保証しているが,個々のフェアネス基準に反し,非常に類似したトラジェクトリを持つユーザに対して,異なるプライバシ向上が認められたことが示唆された。
論文 参考訳(メタデータ) (2023-04-10T11:09:18Z) - Outlier-Robust Group Inference via Gradient Space Clustering [50.87474101594732]
既存のメソッドは、最悪のグループのパフォーマンスを改善することができるが、それらは、しばしば高価で入手できないグループアノテーションを必要とする。
モデルパラメータの勾配の空間にデータをクラスタリングすることで,アウトレーヤの存在下でグループアノテーションを学習する問題に対処する。
そこで我々は,DBSCANのような標準クラスタリング手法に適合するように,マイノリティグループや外れ値に関する情報を保存しながら,勾配空間内のデータがより単純な構造を持つことを示す。
論文 参考訳(メタデータ) (2022-10-13T06:04:43Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - The Impact of Differential Privacy on Group Disparity Mitigation [28.804933301007644]
差分プライバシーが4つのタスクの公平性に与える影響を評価する。
私たちは、経験的リスク最小化を伴う$(varepsilon,delta)$-differentially privateモデルをトレーニングします。
基本設定におけるグループ間性能差は,差分プライバシが増加することが判明した。
しかし、差分プライバシーは、ロバストな設定におけるグループ間のパフォーマンス差を減少させる。
論文 参考訳(メタデータ) (2022-03-05T13:55:05Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Improving Fairness and Privacy in Selection Problems [21.293367386282902]
教師付き学習モデルの公平性とプライバシーの両方を改善するための後処理のステップとして、微分的プライベート指数関数機構を使用することの可能性を検討する。
この指数関数的メカニズムは, プライバシと公平性の両方を向上し, ポストプロセッシングを伴わないモデルと比較して, 精度がわずかに低下することを示した。
論文 参考訳(メタデータ) (2020-12-07T15:55:28Z) - On the Privacy Risks of Algorithmic Fairness [9.429448411561541]
我々は、グループフェアネスのプライバシーリスクを、メンバーシップ推論攻撃のレンズを通して調査する。
公平さはプライバシーの犠牲であり、このコストは平等に分配されない。
論文 参考訳(メタデータ) (2020-11-07T09:15:31Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。