論文の概要: Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms
- arxiv url: http://arxiv.org/abs/2010.03986v1
- Date: Thu, 8 Oct 2020 13:58:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 11:51:20.913405
- Title: Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms
- Title(参考訳): 公平性を考慮した機械学習アルゴリズムの系統的比較のためのメトリクスと手法
- Authors: Gareth P. Jones, James M. Hickey, Pietro G. Di Stefano, Charanpal
Dhanjal, Laura C. Stoddart and Vlasios Vasileiou
- Abstract要約: この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding and removing bias from the decisions made by machine learning
models is essential to avoid discrimination against unprivileged groups.
Despite recent progress in algorithmic fairness, there is still no clear answer
as to which bias-mitigation approaches are most effective. Evaluation
strategies are typically use-case specific, rely on data with unclear bias, and
employ a fixed policy to convert model outputs to decision outcomes. To address
these problems, we performed a systematic comparison of a number of popular
fairness algorithms applicable to supervised classification. Our study is the
most comprehensive of its kind. It utilizes three real and four synthetic
datasets, and two different ways of converting model outputs to decisions. It
considers fairness, predictive-performance, calibration quality, and speed of
28 different modelling pipelines, corresponding to both fairness-unaware and
fairness-aware algorithms. We found that fairness-unaware algorithms typically
fail to produce adequately fair models and that the simplest algorithms are not
necessarily the fairest ones. We also found that fairness-aware algorithms can
induce fairness without material drops in predictive power. Finally, we found
that dataset idiosyncracies (e.g., degree of intrinsic unfairness, nature of
correlations) do affect the performance of fairness-aware approaches. Our
results allow the practitioner to narrow down the approach(es) they would like
to adopt without having to know in advance their fairness requirements.
- Abstract(参考訳): 機械学習モデルによる決定からバイアスを理解し、取り除くことは、特権のないグループに対する差別を避けるために不可欠である。
アルゴリズムの公平性は最近の進歩にもかかわらず、どのバイアス緩和アプローチが最も効果的かという明確な答えはいまだに存在しない。
評価戦略は一般的にユースケース固有のもので、偏りのないデータに依存し、モデルアウトプットを決定結果に変換するために固定ポリシーを採用している。
これらの問題に対処するために,教師付き分類に適用できる一般的なフェアネスアルゴリズムを体系的に比較した。
私たちの研究はこの種の最も包括的です。
3つの実データと4つの合成データセットを使用し、モデルの出力を決定に変換する2つの異なる方法を使用する。
公正さ、予測性能、キャリブレーション品質、および28種類のモデリングパイプラインの速度を、公正さを意識しないアルゴリズムとフェアネスを意識したアルゴリズムの両方に対応している。
フェアネスを意識しないアルゴリズムは、一般的に適切なフェアモデルを生成することができず、最も単純なアルゴリズムは必ずしもフェアモデルではないことがわかった。
また, 公平性認識アルゴリズムは, 予測力の低下を伴わずに公平性を誘導できることがわかった。
最後に、データセットの慣用性(例えば、本質的不公平度、相関性の性質)がフェアネスを意識した手法の性能に影響を及ぼすことを示した。
この結果から,事前の公正要件を知らなくても,実践者が採用したいアプローチを狭めることが可能となった。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Can Ensembling Pre-processing Algorithms Lead to Better Machine Learning
Fairness? [8.679212948810916]
モデルのトレーニング中に暗黙のバイアスを軽減するために、いくつかのフェアネス前処理アルゴリズムが利用可能である。
これらのアルゴリズムはフェアネスの異なる概念を採用しており、しばしばフェアネスと精度の連続的なトレードオフを伴う戦略と矛盾する。
我々は,3つの一般的なフェアネス前処理アルゴリズムを評価し,全てのアルゴリズムをより堅牢な前処理アンサンブルに組み合わせる可能性について検討する。
論文 参考訳(メタデータ) (2022-12-05T21:54:29Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - FAIRLEARN:Configurable and Interpretable Algorithmic Fairness [1.2183405753834557]
トレーニングサンプルから生じるバイアスや、データサンプルに関する暗黙の仮定を緩和する必要がある。
最適化の異なる段階でバイアスを検出し緩和することで、学習アルゴリズムを公平にするために多くのアプローチが提案されている。
本稿では,ユーザの制約を最適化手順に組み込むことで,公平なアルゴリズムを生成するFAIRLEARN手順を提案する。
論文 参考訳(メタデータ) (2021-11-17T03:07:18Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Individually Fair Gradient Boosting [86.1984206610373]
我々は、グラデーションブーストにおいて個人の公平性を強制するタスクを検討する。
アルゴリズムがグローバルに収束し、一般化することを示す。
また,アルゴリズムバイアスの影響を受けやすい3つのml問題に対するアルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2021-03-31T03:06:57Z) - Transparency Tools for Fairness in AI (Luskin) [12.158766675246337]
我々は,AIアルゴリズムにおける公平さと偏見を評価し,補正するための新しいツールを提案する。
3つのツールは以下のとおりである。 - 保護された特徴とフィルタの選択に関して、"制御された公平性"と呼ばれる新しい公平性の定義。
それらは様々なバイアスの次元を理解するのに有用であり、実際、アルゴリズムは新しいデータでテストした場合、与えられた観測されたバイアスを減らすのに効果的である。
論文 参考訳(メタデータ) (2020-07-09T00:21:54Z) - Do the Machine Learning Models on a Crowd Sourced Platform Exhibit Bias?
An Empirical Study on Model Fairness [7.673007415383724]
5つの異なるタスクに使用したKaggleから、40の上位モデルのベンチマークを作成しました。
これらのモデルに7つの緩和手法を適用し、公正性、緩和結果、および性能への影響を分析した。
論文 参考訳(メタデータ) (2020-05-21T23:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。