論文の概要: Bursting the Burden Bubble? An Assessment of Sharma et al.'s
Counterfactual-based Fairness Metric
- arxiv url: http://arxiv.org/abs/2211.11512v1
- Date: Mon, 21 Nov 2022 14:54:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 19:13:36.867874
- Title: Bursting the Burden Bubble? An Assessment of Sharma et al.'s
Counterfactual-based Fairness Metric
- Title(参考訳): バーデンバブルを燃やす?
sharma et al.の反事実ベースフェアネス指標の評価
- Authors: Yochem van Rosmalen, Florian van der Steen, Sebastiaan Jans, Daan van
der Weijden
- Abstract要約: 統計値が不公平な場合,バーデンが不公平であることを示すとともに,両指標が不公平に扱われるグループに対して不一致を示すことも示している。
バーデンは価値ある計量であるが、統計的なパリティに取って代わるものではないと結論付けている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine learning has seen an increase in negative publicity in recent years,
due to biased, unfair, and uninterpretable models. There is a rising interest
in making machine learning models more fair for unprivileged communities, such
as women or people of color. Metrics are needed to evaluate the fairness of a
model. A novel metric for evaluating fairness between groups is Burden, which
uses counterfactuals to approximate the average distance of negatively
classified individuals in a group to the decision boundary of the model. The
goal of this study is to compare Burden to statistical parity, a well-known
fairness metric, and discover Burden's advantages and disadvantages. We do this
by calculating the Burden and statistical parity of a sensitive attribute in
three datasets: two synthetic datasets are created to display differences
between the two metrics, and one real-world dataset is used. We show that
Burden can show unfairness where statistical parity can not, and that the two
metrics can even disagree on which group is treated unfairly. We conclude that
Burden is a valuable metric, but does not replace statistical parity: it rather
is valuable to use both.
- Abstract(参考訳): 機械学習は、偏り、不公平、そして解釈不能なモデルのために、近年、ネガティブな宣伝が増加している。
機械学習モデルを女性や有色人種のような特権のないコミュニティにとって公平にすることへの関心が高まっている。
モデルの公平性を評価するにはメトリクスが必要である。
グループ間の公平性を評価するための新しい指標は、負の分類された個人の平均距離をモデルの決定境界に近似するために偽物を使用する負担である。
本研究の目的は,重荷と統計的パリティ,有名な公平度指標を比較し,重荷の長所と短所を発見することである。
2つの合成データセットは、2つのメトリクス間の差異を表示するために作成され、1つの実世界のデータセットが使用される。
統計的パリティが得られないような不公平さを示すことや、どの集団が不公平に扱われるかについて意見が一致しない場合もある。
バーデンは価値ある計量であるが、統計的なパリティに取って代わるものではないと結論付けている。
関連論文リスト
- "Patriarchy Hurts Men Too." Does Your Model Agree? A Discussion on Fairness Assumptions [3.706222947143855]
グループフェアネスの文脈では、このアプローチはデータへのバイアスの導入方法に関する暗黙の仮定を曖昧にすることが多い。
我々は偏りの過程が公正スコアの単調関数であり、感度属性のみに依存すると仮定している。
偏見過程の振舞いは単なる単調性よりも複雑であり、つまり暗黙の仮定を特定し、否定する必要がある。
論文 参考訳(メタデータ) (2024-08-01T07:06:30Z) - Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - On Fairness and Stability: Is Estimator Variance a Friend or a Foe? [6.751310968561177]
分散度におけるグループワイドパリティに基づく新しいパフォーマンス指標群を提案する。
フェアネス分析による不確実性定量化手法を再現したオープンソースライブラリを開発し,リリースする。
論文 参考訳(メタデータ) (2023-02-09T09:35:36Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Convex Fairness Constrained Model Using Causal Effect Estimators [6.414055487487486]
説明バイアスを保ちながら差別を除去するFairCEEと呼ばれる新しいモデルを考案する。
回帰および二分分類タスクにおけるFairCEEの効率的な解法を提案する。
論文 参考訳(メタデータ) (2020-02-16T03:40:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。