論文の概要: Fair Enough: Searching for Sufficient Measures of Fairness
- arxiv url: http://arxiv.org/abs/2110.13029v1
- Date: Mon, 25 Oct 2021 15:08:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 18:49:47.559510
- Title: Fair Enough: Searching for Sufficient Measures of Fairness
- Title(参考訳): Fair Enough: フェアネスの適切な対策を探る
- Authors: Suvodeep Majumder and Joymallya Chakraborty and Gina R. Bai and
Kathryn T. Stolee and Tim Menzies
- Abstract要約: 倫理的偏見のために機械学習ソフトウェアをテストすることは、現在の関心事となっている。
最近の研究では、IBM AIF360ツールキットにおける数十のフェアネス指標など、多数の新しいフェアネス指標が提案されている。
本稿は、これらの公平度指標の多くが、効果的に同じことを測定していることを示している。
- 参考スコア(独自算出の注目度): 20.747231692331695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Testing machine learning software for ethical bias has become a pressing
current concern. In response, recent research has proposed a plethora of new
fairness metrics, for example, the dozens of fairness metrics in the IBM AIF360
toolkit. This raises the question: How can any fairness tool satisfy such a
diverse range of goals?
While we cannot completely simplify the task of fairness testing, we can
certainly reduce the problem. This paper shows that many of those fairness
metrics effectively measure the same thing. Based on experiments using seven
real-world datasets, we find that (a) 26 classification metrics can be
clustered into seven groups, and (b) four dataset metrics can be clustered into
three groups. Further, each reduced set may actually predict different things.
Hence, it is no longer necessary (or even possible) to satisfy all fairness
metrics.
In summary, to simplify the fairness testing problem, we recommend the
following steps: (1) determine what type of fairness is desirable (and we offer
a handful of such types); then (2) lookup those types in our clusters; then (3)
just test for one item per cluster. To support that processing, all our scripts
(and example datasets) are available at
https://github.com/Repoanonymous/Fairness\_Metrics.
- Abstract(参考訳): 倫理バイアスのために機械学習ソフトウェアをテストすることは、現在差し迫った懸念となっている。
これに対して、最近の研究では、IBM AIF360ツールキットの数十の公正度測定値など、多数の新しい公正度測定値が提案されている。
どんな公平ツールがこのような多様な目標を満足させるにはどうすればよいのか?
公平性テストのタスクを完全に単純化することはできないが、問題を確実に軽減できる。
本稿では,これらの公平性指標の多くが,同じ尺度を効果的に測定していることを示す。
7つの実世界のデータセットを用いた実験から
(a)26の分類基準は7つのグループに分類でき、
b) 4つのデータセットのメトリクスを3つのグループにまとめることができる。
さらに、それぞれの縮小集合は実際には異なるものを予測することができる。
したがって、公平なメトリクスをすべて満たすことはもはや必要(あるいは可能)ではない。
まとめると、フェアネステストの問題を単純化するために、(1) フェアネスのどのタイプが望ましいかを決定する(そして、そのようなタイプをいくつか提供する)、(2) クラスタ内のそれらのタイプを調べる、(3) クラスタ毎に1つの項目をテストする、という手順を推奨します。
この処理をサポートするため、すべてのスクリプト(およびデータセットの例)がhttps://github.com/repoanonymous/fairness\_metricsで利用可能です。
関連論文リスト
- OxonFair: A Flexible Toolkit for Algorithmic Fairness [10.168294659618345]
OxonFairはバイナリ分類における公平性を強化するオープンソースツールキットである。
sklearn、Autogluon、PyTorchなど、標準的なMLツールキットと互換性がある。
論文 参考訳(メタデータ) (2024-06-30T16:41:28Z) - Falcon: Fair Active Learning using Multi-armed Bandits [9.895979687746376]
本稿では,戦略サンプル選択による機械学習モデルの公平性向上を目的としたデータ中心型手法を提案する。
実験の結果、ファルコンはフェアネスと精度で既存のフェアアクティブな学習手法を著しく上回っていることがわかった。
特に、ファルコンだけが精度と公平性の間の適切なトレードオフをサポートしており、最大のフェアネススコアは2番目に高い結果よりも1.8-4.5倍高い。
論文 参考訳(メタデータ) (2024-01-23T12:48:27Z) - Fair Abstractive Summarization of Diverse Perspectives [103.08300574459783]
公平な要約は、特定のグループを過小評価することなく、多様な視点を包括的にカバーしなければなりません。
はじめに、抽象的な要約における公正性は、いかなる集団の視点にも過小評価されないものとして、正式に定義する。
本研究では,対象視点と対象視点の差を測定することで,基準のない4つの自動計測手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T03:38:55Z) - Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - FairGrad: Fairness Aware Gradient Descent [0.12183405753834563]
グループ固有の重みを反復的に学習する再重み付け方式に基づいて、公平性を強制するFairGradを提案する。
FairGradは実装が容易で、様々な標準のフェアネス定義に対応しており、オーバーヘッドは最小限である。
論文 参考訳(メタデータ) (2022-06-22T09:02:42Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。