論文の概要: Addressing multiple metrics of group fairness in data-driven decision
making
- arxiv url: http://arxiv.org/abs/2003.04794v1
- Date: Tue, 10 Mar 2020 15:13:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 20:54:49.542263
- Title: Addressing multiple metrics of group fairness in data-driven decision
making
- Title(参考訳): データ駆動意思決定におけるグループフェアネスの複数の指標に対処する
- Authors: Marius Miron, Song\"ul Tolan, Emilia G\'omez, Carlos Castillo
- Abstract要約: FAT-ML文献は、社会デミノグラフィーグループに対する差別を測定するために、様々なグループの公正度尺度を提案する。
これらのメトリクスのいくつかは、同じグループと機械学習メソッドのために、2つまたは3つの主要なクラスタにまとめられていることを観察する。
グループフェアネス指標の主成分分析(PCA)を用いて,2次元の多次元フェアネスを可視化する頑健な手法を提案する。
- 参考スコア(独自算出の注目度): 2.750586731051391
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The Fairness, Accountability, and Transparency in Machine Learning (FAT-ML)
literature proposes a varied set of group fairness metrics to measure
discrimination against socio-demographic groups that are characterized by a
protected feature, such as gender or race.Such a system can be deemed as either
fair or unfair depending on the choice of the metric. Several metrics have been
proposed, some of them incompatible with each other.We do so empirically, by
observing that several of these metrics cluster together in two or three main
clusters for the same groups and machine learning methods. In addition, we
propose a robust way to visualize multidimensional fairness in two dimensions
through a Principal Component Analysis (PCA) of the group fairness metrics.
Experimental results on multiple datasets show that the PCA decomposition
explains the variance between the metrics with one to three components.
- Abstract(参考訳): 機械学習(fat-ml)文献における公平性、説明可能性、透明性は、性別や人種などの保護された特徴によって特徴付けられる社会デミックグループに対する差別を測定するために、様々な集団フェアネス指標を提案する。
私たちは、これらのメトリクスのいくつかが、同じグループと機械学習の方法のために、2、3つのメインクラスタにまとめられるのを観察し、経験的にそうしている。
さらに,グループフェアネス尺度の主成分分析(PCA)を用いて,2次元の多次元フェアネスを可視化する頑健な手法を提案する。
複数のデータセットに対する実験結果から,PCA分解では測定値のばらつきを1~3成分で説明できることがわかった。
関連論文リスト
- A structured regression approach for evaluating model performance across intersectional subgroups [53.91682617836498]
分散評価(disaggregated evaluation)は、AIフェアネスアセスメントにおける中心的なタスクであり、AIシステムのさまざまなサブグループ間でのパフォーマンスを測定することを目的としている。
非常に小さなサブグループであっても,信頼性の高いシステム性能推定値が得られることを示す。
論文 参考訳(メタデータ) (2024-01-26T14:21:45Z) - Fair Abstractive Summarization of Diverse Perspectives [103.08300574459783]
公平な要約は、特定のグループを過小評価することなく、多様な視点を包括的にカバーしなければなりません。
はじめに、抽象的な要約における公正性は、いかなる集団の視点にも過小評価されないものとして、正式に定義する。
本研究では,対象視点と対象視点の差を測定することで,基準のない4つの自動計測手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T03:38:55Z) - A Canonical Data Transformation for Achieving Inter- and Within-group Fairness [17.820200610132265]
同一グループ内から個人間の公平性を維持するグループ内公正性の形式的定義を導入する。
本稿では,グループ間の公正度基準とグループ内公正度基準の両方を満たすための事前処理フレームワークを提案する。
この枠組みをCompASリスクアセスメントとLaw Schoolのデータセットに適用し、その性能を正規化に基づく2つの手法と比較する。
論文 参考訳(メタデータ) (2023-10-23T17:00:20Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Estimating Structural Disparities for Face Models [54.062512989859265]
機械学習では、異なるサブ人口間でのモデルの性能や結果の差を測定することで、しばしば異質度の測定が定義される。
本研究では、人間の顔に訓練されたコンピュータビジョンモデルや、顔属性予測や影響推定などのタスクについて、そのような分析を行う。
論文 参考訳(メタデータ) (2022-04-13T05:30:53Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Disparate Outcomes of Content Recommendation Algorithms with
Distributional Inequality Metrics [5.74271110290378]
我々は,経済学,分布不平等指標,およびTwitterのアルゴリズム・タイムラインにおけるコンテンツ露出の差異を測定する能力から,一連の指標を評価した。
これらのメトリクスを用いて、ユーザ間の歪んだ結果に強く寄与するコンテンツ提案アルゴリズムを特定できることを示す。
論文 参考訳(メタデータ) (2022-02-03T14:41:39Z) - Quantifying Social Biases in NLP: A Generalization and Empirical
Comparison of Extrinsic Fairness Metrics [5.248359551210087]
バイアスを測定することは、NLP/MLモデルの理解を深め、不公平に対処するための鍵となる。
NLPで使用される公平度測定値の違いと類似点について,さらに詳しく検討した。
論文 参考訳(メタデータ) (2021-06-28T11:02:33Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。