論文の概要: Priority-based Post-Processing Bias Mitigation for Individual and Group
Fairness
- arxiv url: http://arxiv.org/abs/2102.00417v1
- Date: Sun, 31 Jan 2021 09:25:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-03 04:09:34.130794
- Title: Priority-based Post-Processing Bias Mitigation for Individual and Group
Fairness
- Title(参考訳): プライオリティに基づく個人とグループフェアネスのためのポストプロシースバイアス軽減
- Authors: Pranay Lohia
- Abstract要約: 本稿では,グループと個別の公正度に優先順位に基づく後処理バイアスを緩和する手法を提案する。
我々の新しいフレームワークは、消費戦略をよりよく捉えるために、ユーザーセグメント化アルゴリズムを用いてそれを確立する。
関税計算の実施プロセスを変更することなく、住民全体に対する公正な関税配分という概念を支持している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous post-processing bias mitigation algorithms on both group and
individual fairness don't work on regression models and datasets with
multi-class numerical labels. We propose a priority-based post-processing bias
mitigation on both group and individual fairness with the notion that similar
individuals should get similar outcomes irrespective of socio-economic factors
and more the unfairness, more the injustice. We establish this proposition by a
case study on tariff allotment in a smart grid. Our novel framework establishes
it by using a user segmentation algorithm to capture the consumption strategy
better. This process ensures priority-based fair pricing for group and
individual facing the maximum injustice. It upholds the notion of fair tariff
allotment to the entire population taken into consideration without modifying
the in-built process for tariff calculation. We also validate our method and
show superior performance to previous work on a real-world dataset in criminal
sentencing.
- Abstract(参考訳): グループと個人の公平性に関する処理後バイアス軽減アルゴリズムは、マルチクラスの数値ラベルを持つ回帰モデルやデータセットでは機能しません。
本稿では,社会経済的要因や不公平性に拘わらず,類似する個人が同様の結果を得るべきだという考えから,グループと個人の公平性に対する優先順位に基づく後処理バイアス緩和を提案する。
この提案は,スマートグリッドにおける関税配分に関するケーススタディによって確立される。
提案手法は,ユーザのセグメンテーションアルゴリズムを用いて,消費戦略をよりよく把握する。
このプロセスは、最大不正に直面しているグループと個人に対する優先順位に基づく公正価格を保証する。
関税計算の実施プロセスを変更することなく、住民全体に対する公正な関税配分という概念を支持している。
また,本手法の有効性を検証し,実世界データセットに対する従来よりも優れた性能を示す。
関連論文リスト
- Equitable Federated Learning with Activation Clustering [5.116582735311639]
フェデレートラーニング(Federated Learning)は、さまざまなクライアント間のコラボレーションを取り入れた、卓越した分散学習パラダイムである。
本稿では,クライアント同士の類似度に基づいて,クライアントを分類・クラスタ化する同値クラスタリングベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-24T23:36:39Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Optimal Group Fair Classifiers from Linear Post-Processing [10.615965454674901]
本稿では,グループフェアネス基準の統一されたファミリーの下でモデルバイアスを緩和するフェア分類のためのポストプロセッシングアルゴリズムを提案する。
与えられたベースモデルの出力スコアを、(予測された)グループのメンバシップの線形結合である「公正コスト」で再計算することで、公平性を達成する。
論文 参考訳(メタデータ) (2024-05-07T05:58:44Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Metric-Free Individual Fairness with Cooperative Contextual Bandits [17.985752744098267]
グループフェアネスは、グループ内の一部の個人に対して不公平であるように、異なるグループが同様に扱われるべきである。
個々の公正性は、問題固有の類似度指標に依存するため、まだ検討されていない。
本研究では,メトリックフリーな個人フェアネスと協調的文脈帯域幅アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-13T03:10:35Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - Distributional Individual Fairness in Clustering [7.303841123034983]
本稿では,距離空間に埋め込まれた個人を,有界なクラスタ中心上の確率分布に割り当てる枠組みを提案する。
p$-norm目的のクラスタリングアルゴリズムと、証明可能な近似保証付き個別フェアネス制約を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。