論文の概要: FairRR: Pre-Processing for Group Fairness through Randomized Response
- arxiv url: http://arxiv.org/abs/2403.07780v1
- Date: Tue, 12 Mar 2024 16:08:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 20:55:18.059455
- Title: FairRR: Pre-Processing for Group Fairness through Randomized Response
- Title(参考訳): fairrr:ランダム化応答によるグループフェアネスの前処理
- Authors: Xianli Zeng, Joshua Ward, Guang Cheng
- Abstract要約: グループフェアネスの尺度を最適モデルユーティリティで直接制御できることが示される。
本稿では,FairRRという,下流モデルの有用性と公平性を向上する前処理アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 11.748613469340071
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing usage of machine learning models in consequential
decision-making processes has spurred research into the fairness of these
systems. While significant work has been done to study group fairness in the
in-processing and post-processing setting, there has been little that
theoretically connects these results to the pre-processing domain. This paper
proposes that achieving group fairness in downstream models can be formulated
as finding the optimal design matrix in which to modify a response variable in
a Randomized Response framework. We show that measures of group fairness can be
directly controlled for with optimal model utility, proposing a pre-processing
algorithm called FairRR that yields excellent downstream model utility and
fairness.
- Abstract(参考訳): 一連の意思決定プロセスにおける機械学習モデルの利用の増加は、これらのシステムの公平性の研究を促した。
内部処理と後処理の設定においてグループフェアネスを研究するために重要な研究がなされているが、理論上これらの結果を前処理領域に結び付けるものはほとんどない。
本稿では,下流モデルにおけるグループフェアネスの達成を,ランダム化応答フレームワークにおいて応答変数を変更する最適設計行列の発見として定式化できることを示す。
グループフェアネスの尺度は最適なモデルユーティリティで直接制御可能であることを示し、FairRRと呼ばれる、優れた下流モデルユーティリティとフェアネスをもたらす前処理アルゴリズムを提案する。
関連論文リスト
- Optimal Group Fair Classifiers from Linear Post-Processing [10.615965454674901]
本稿では,グループフェアネス基準の統一されたファミリーの下でモデルバイアスを緩和するフェア分類のためのポストプロセッシングアルゴリズムを提案する。
与えられたベースモデルの出力スコアを、(予測された)グループのメンバシップの線形結合である「公正コスト」で再計算することで、公平性を達成する。
論文 参考訳(メタデータ) (2024-05-07T05:58:44Z) - FRAPPE: A Group Fairness Framework for Post-Processing Everything [48.57876348370417]
本稿では,任意の正規化インプロセッシング手法をポストプロセッシング手法に変換するフレームワークを提案する。
理論的および実験を通して、我々のフレームワークは、内部処理で達成された優れた公正なエラートレードオフを保っていることを示す。
論文 参考訳(メタデータ) (2023-12-05T09:09:21Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - An Operational Perspective to Fairness Interventions: Where and How to
Intervene [9.833760837977222]
フェアネス介入の評価と文脈化のための包括的枠組みを提案する。
予測パリティに関するケーススタディで、我々のフレームワークを実証する。
グループデータを使わずに予測パリティを実現することは困難である。
論文 参考訳(メタデータ) (2023-02-03T07:04:33Z) - Fine-grained Retrieval Prompt Tuning [149.9071858259279]
微粒な検索プロンプトチューニングは, サンプルプロンプトと特徴適応の観点から, きめの細かい検索タスクを実行するために, 凍結した事前学習モデルを操る。
学習可能なパラメータが少ないFRPTは、広く使われている3つの細粒度データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-29T04:10:04Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Group-Aware Threshold Adaptation for Fair Classification [9.496524884855557]
複数のフェアネス制約を克服する新しいポストプロセッシング手法を提案する。
理論的には,同条件下での既存手法よりも近似最適に近い上界を許容する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-11-08T04:36:37Z) - Cluster Regularization via a Hierarchical Feature Regression [0.0]
本稿では,階層的特徴回帰(HFR)という新しいクラスタベース正規化を提案する。
機械学習とグラフ理論の領域からの洞察を動員し、予測セットの教師付き階層表現に沿ってパラメータを推定する。
経済成長予測への応用は、実証的な環境でのHFRの有効性を示すために用いられる。
論文 参考訳(メタデータ) (2021-07-10T13:03:01Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。