論文の概要: FALE: Fairness-Aware ALE Plots for Auditing Bias in Subgroups
- arxiv url: http://arxiv.org/abs/2404.18685v1
- Date: Mon, 29 Apr 2024 13:30:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 13:38:04.350861
- Title: FALE: Fairness-Aware ALE Plots for Auditing Bias in Subgroups
- Title(参考訳): FALE:サブグループにおけるバイアス監査のためのフェアネス対応ALEプロット
- Authors: Giorgos Giannopoulos, Dimitris Sacharidis, Nikolas Theologitis, Loukas Kavouras, Ioannis Emiris,
- Abstract要約: 本稿では,サブグループ内の潜在的なバイアスを識別し,ユーザフレンドリな方法で発見を可視化するための説明可能性手法を提案する。
FALEは,潜在的なバイアス問題のあるサブグループを特定するための,効率的でユーザフレンドリで,理解しやすく,信頼性の高い第1段階ツールとして機能することを期待している。
- 参考スコア(独自算出の注目度): 0.8528401618469597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness is steadily becoming a crucial requirement of Machine Learning (ML) systems. A particularly important notion is subgroup fairness, i.e., fairness in subgroups of individuals that are defined by more than one attributes. Identifying bias in subgroups can become both computationally challenging, as well as problematic with respect to comprehensibility and intuitiveness of the finding to end users. In this work we focus on the latter aspects; we propose an explainability method tailored to identifying potential bias in subgroups and visualizing the findings in a user friendly manner to end users. In particular, we extend the ALE plots explainability method, proposing FALE (Fairness aware Accumulated Local Effects) plots, a method for measuring the change in fairness for an affected population corresponding to different values of a feature (attribute). We envision FALE to function as an efficient, user friendly, comprehensible and reliable first-stage tool for identifying subgroups with potential bias issues.
- Abstract(参考訳): フェアネスは、機械学習(ML)システムにおいて、徐々に重要な要件になりつつある。
特に重要な概念は、サブグループフェアネス、すなわち複数の属性によって定義される個人のサブグループにおけるフェアネスである。
サブグループのバイアスを特定することは、計算的に困難になるだけでなく、エンドユーザに対する発見の理解性や直感性に関しても問題となる可能性がある。
本研究は後者に焦点をあて,サブグループ内の潜在的なバイアスを特定し,エンドユーザに親しみやすい方法で発見を可視化するための説明可能性手法を提案する。
特に、FALE(Fairness aware Accumulated Local Effects)プロットの提案により、ALEプロットの説明可能性法を拡張し、特徴(属性)の異なる値に対応する影響集団に対する公正度の変化を測定する方法を提案する。
FALEは,潜在的なバイアス問題のあるサブグループを特定するための,効率的でユーザフレンドリで,理解しやすく,信頼性の高い第1段階ツールとして機能することを期待している。
関連論文リスト
- Fairpriori: Improving Biased Subgroup Discovery for Deep Neural Network Fairness [21.439820064223877]
本稿では,新しいバイアス付きサブグループ発見法であるFairprioriを紹介する。
このアルゴリズムは、交差点バイアスの効率的かつ効率的な調査を容易にするために、頻繁なアイテムセット生成アルゴリズムを組み込んでいる。
フェアプリオリは交叉バイアスを特定する際に優れた効果と効率を示す。
論文 参考訳(メタデータ) (2024-06-25T00:15:13Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - How Biased are Your Features?: Computing Fairness Influence Functions
with Global Sensitivity Analysis [38.482411134083236]
機械学習の公正性は、ハイテイクな意思決定タスクに広く適用されているため、大きな焦点をあてている。
本稿では,各特徴の偏りを個々の特徴と複数の特徴の交叉に分解するFairness Influence Function (FIF)を紹介する。
実験により、FairXplainerは個々の特徴と交叉特徴のFIFをキャプチャし、FIFに基づくバイアスのより優れた近似を提供し、FIFと公平な介入の相関を高く示し、また、分類器における公正肯定的/疑似的行動によるバイアスの変化を検出する。
論文 参考訳(メタデータ) (2022-06-01T04:02:16Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Are Your Reviewers Being Treated Equally? Discovering Subgroup
Structures to Improve Fairness in Spam Detection [13.26226951002133]
本稿では,スパム検出のための新しいサブグループ構造の定義,近似,利用の課題に対処する。
まず、レビューグラフ内のサブグループ構造を同定し、グループ内の離散精度を導出する。
3つの大規模なYelpレビューデータセットのベースラインに対する総合的な比較では、サブグループのメンバシップを識別し、グループフェアネスに活用できることが示されている。
論文 参考訳(メタデータ) (2022-04-24T02:19:22Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - FACT: A Diagnostic for Group Fairness Trade-offs [23.358566041117083]
グループフェアネス(グループフェアネス、英: Group Fairness)とは、個人の異なる集団が保護された属性によってどのように異なる扱いを受けるかを測定するフェアネスの概念のクラスである。
グループフェアネスにおけるこれらのトレードオフを体系的に評価できる一般的な診断法を提案する。
論文 参考訳(メタデータ) (2020-04-07T14:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。