論文の概要: Towards Auditing Unsupervised Learning Algorithms and Human Processes
For Fairness
- arxiv url: http://arxiv.org/abs/2209.11762v1
- Date: Tue, 20 Sep 2022 12:30:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 23:05:19.823406
- Title: Towards Auditing Unsupervised Learning Algorithms and Human Processes
For Fairness
- Title(参考訳): 教師なし学習アルゴリズムと人間プロセスの公正化に向けて
- Authors: Ian Davidson and S. S. Ravi
- Abstract要約: 既存の研究は、統計パリティの標準定義を用いたバイナリ保護状態変数の2つのグループ分類問題について検討してきた。
ここでは、より複雑なフェアネスの定義の下で、多群設定を探索することによって監査の領域を構築する。
- 参考スコア(独自算出の注目度): 39.77120515767369
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing work on fairness typically focuses on making known machine learning
algorithms fairer. Fair variants of classification, clustering, outlier
detection and other styles of algorithms exist. However, an understudied area
is the topic of auditing an algorithm's output to determine fairness. Existing
work has explored the two group classification problem for binary protected
status variables using standard definitions of statistical parity. Here we
build upon the area of auditing by exploring the multi-group setting under more
complex definitions of fairness.
- Abstract(参考訳): フェアネスに関する既存の作業は通常、既知の機械学習アルゴリズムをより公平にすることに焦点を当てている。
分類、クラスタリング、異常検出、その他のアルゴリズムのフェア変種が存在する。
しかしながら、未調査領域は、公正性を決定するためにアルゴリズムの出力を監査するトピックである。
既存の研究は、統計パリティの標準定義を用いてバイナリ保護ステータス変数の2つのグループ分類問題を探求している。
ここでは、より複雑なフェアネスの定義の下でマルチグループ設定を探索することで、監査の領域を構築する。
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Differentially Private Fair Binary Classifications [1.8087157239832476]
まず,公平性保証のみで分類器を学習するアルゴリズムを提案する。
次に、このアルゴリズムを改良して、差分プライバシーを取り入れます。
アダルトカードとクレディカードのデータセットで行った実証的な評価は、我々のアルゴリズムが公正性の保証の観点から最先端のアルゴリズムよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-02-23T20:52:59Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Detection of Groups with Biased Representation in Ranking [28.095668425175564]
上位ランクの項目に偏りのある群を検出する問題について検討する。
2つの異なる公正度尺度に対する効率的な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-30T10:50:02Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Learning to Generate Fair Clusters from Demonstrations [27.423983748614198]
本稿では,専門家による限定的な実証に基づいて,問題に対する意図された公平性制約を特定する方法について述べる。
本稿では、実演からフェアネスメトリックを識別し、既存のオフザシェルフクラスタリング技術を用いてクラスタを生成するアルゴリズムを提案する。
本稿では,本手法を用いて解釈可能な解を生成する方法について検討する。
論文 参考訳(メタデータ) (2021-02-08T03:09:33Z) - Fair Hierarchical Clustering [92.03780518164108]
従来のクラスタリングにおける過剰表現を緩和する公平性の概念を定義する。
我々のアルゴリズムは、目的に対して無視できない損失しか持たない、公平な階層的なクラスタリングを見つけることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T01:05:11Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Fair Algorithms for Hierarchical Agglomerative Clustering [17.66340013352806]
Hierarchical Agglomerative Clustering (HAC)アルゴリズムは、現代のデータサイエンスで広く利用されている。
たとえデータセットが特定の保護されたグループに対するバイアスを含むとしても、これらのアルゴリズムが公平であることを保証することが不可欠である。
公平性制約を強制するHACを行うための公正アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-07T01:41:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。