論文の概要: On the Impact of Output Perturbation on Fairness in Binary Linear
Classification
- arxiv url: http://arxiv.org/abs/2402.03011v1
- Date: Mon, 5 Feb 2024 13:50:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 15:57:13.377414
- Title: On the Impact of Output Perturbation on Fairness in Binary Linear
Classification
- Title(参考訳): 二元線形分類における出力摂動が公平性に及ぼす影響について
- Authors: Vitalii Emelianov, Micha\"el Perrot
- Abstract要約: 二元線形分類において、差分プライバシーが個人と集団の公平性の両方とどのように相互作用するかを考察する。
我々は、摂動モデルが達成できる個人とグループフェアネスのレベルに基づいて、高い確率境界を導出する。
- 参考スコア(独自算出の注目度): 0.3916094706589679
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We theoretically study how differential privacy interacts with both
individual and group fairness in binary linear classification. More precisely,
we focus on the output perturbation mechanism, a classic approach in
privacy-preserving machine learning. We derive high-probability bounds on the
level of individual and group fairness that the perturbed models can achieve
compared to the original model. Hence, for individual fairness, we prove that
the impact of output perturbation on the level of fairness is bounded but grows
with the dimension of the model. For group fairness, we show that this impact
is determined by the distribution of so-called angular margins, that is signed
margins of the non-private model re-scaled by the norm of each example.
- Abstract(参考訳): 線形分類において、差分プライバシーが個人と集団の公平性とどのように相互作用するかを理論的に検討する。
より正確には、プライバシ保護機械学習における古典的なアプローチである出力摂動機構に焦点を当てる。
我々は、摂動モデルが元のモデルと比較して達成できる個性とグループフェアネスのレベルに基づいて高い確率境界を導出する。
したがって、個々の公正性に対して、出力摂動が公平性レベルに与える影響は有界であるが、モデルの次元とともに成長することが証明される。
群公平性について、この影響は、各例のノルムによって再スケールされた非私的モデルの符号付きマージンであるいわゆる角マージンの分布によって決定されることを示す。
関連論文リスト
- Fairness-Aware Meta-Learning via Nash Bargaining [63.44846095241147]
本稿では,機械学習におけるグループレベルの公平性の問題に対処する2段階のメタ学習フレームワークを提案する。
第1段階では、過度な競合を解決するためにNash Bargaining Solution(NBS)を使用して、モデルをステアリングする。
6つのキーフェアネスデータセットと2つの画像分類タスクにおいて、様々なフェアネス目標に対して経験的効果を示す。
論文 参考訳(メタデータ) (2024-06-11T07:34:15Z) - Towards Cohesion-Fairness Harmony: Contrastive Regularization in
Individual Fair Graph Clustering [5.255750357176021]
iFairNMTFは、対照的なフェアネス正則化を持つ個別のフェアネス非負行列三要素化モデルである。
我々のモデルは、カスタマイズ可能な精度対公平トレードオフを可能にし、それによってユーザーの自律性を高める。
論文 参考訳(メタデータ) (2024-02-16T15:25:56Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - FairDP: Certified Fairness with Differential Privacy [59.56441077684935]
本稿では,FairDPについて紹介する。FairDPは,差分プライバシ(DP)による証明された公正性を実現するために設計された,新しいメカニズムである。
FairDPは個別に個別のグループのモデルを訓練し、グループ固有のクリッピング用語を用いてDPの異なる影響を評価し、バウンドする。
広範に理論的および実証的な分析により、FairDPの有効性が検証され、モデルユーティリティ、プライバシ、フェアネス間のトレードオフが改善された。
論文 参考訳(メタデータ) (2023-05-25T21:07:20Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Differential Privacy has Bounded Impact on Fairness in Classification [7.022004731560844]
分類における差分プライバシーが公平性に与える影響について検討する。
モデルのクラスを考えると、一般的な群フェアネス測度はモデルのパラメータに関してポイントワイズ・リプシッツ連続であることが証明される。
論文 参考訳(メタデータ) (2022-10-28T16:19:26Z) - Fair Inference for Discrete Latent Variable Models [12.558187319452657]
デュエルケアなしでデータに基づいて訓練された機械学習モデルは、特定の人口に対して不公平で差別的な行動を示すことが多い。
本研究では,変動分布に公平なペナルティを含む離散潜伏変数に対して,公平な変分推論手法を開発した。
提案手法の一般化と実世界への影響の可能性を示すため,刑事司法リスク評価のための特別目的グラフィカルモデルを構築した。
論文 参考訳(メタデータ) (2022-09-15T04:54:21Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Fairness by Explicability and Adversarial SHAP Learning [0.0]
本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
論文 参考訳(メタデータ) (2020-03-11T14:36:34Z) - Counterfactual fairness: removing direct effects through regularization [0.0]
制御ダイレクトエフェクト(CDE)による因果関係を考慮したフェアネスの新たな定義を提案する。
我々は古典的公正度対策に取り組むための正規化を開発し、新しい公正度定義を満たす因果正則化を示す。
その結果,モデル性能を低下させることなく,予測から不公平さを軽減できることが判明した。
論文 参考訳(メタデータ) (2020-02-25T10:13:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。