論文の概要: Understanding Fairness-Accuracy Trade-offs in Machine Learning Models: Does Promoting Fairness Undermine Performance?
- arxiv url: http://arxiv.org/abs/2411.17374v2
- Date: Wed, 27 Aug 2025 14:36:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.316555
- Title: Understanding Fairness-Accuracy Trade-offs in Machine Learning Models: Does Promoting Fairness Undermine Performance?
- Title(参考訳): 機械学習モデルにおけるフェアネス精度のトレードオフを理解する:フェアネスの促進はパフォーマンスを損なうか?
- Authors: Junhua Liu, Roy Ka-Wei Lee, Kwan Hui Lim,
- Abstract要約: 870人の応募者プロファイルからなる実世界の大学入試データセットを用いてフェアネスを検証した。
我々の分析によると、MLモデルは、公正性の一貫性において、14.08%から18.79%の範囲で人間の評価値を上回っている。
- 参考スコア(独自算出の注目度): 20.681144764497247
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness in both Machine Learning (ML) predictions and human decision-making is essential, yet both are susceptible to different forms of bias, such as algorithmic and data-driven in ML, and cognitive or subjective in humans. In this study, we examine fairness using a real-world university admissions dataset comprising 870 applicant profiles, leveraging three ML models: XGB, Bi-LSTM, and KNN, alongside BERT embeddings for textual features. To evaluate individual fairness, we introduce a consistency metric that quantifies agreement in decisions among ML models and human experts with diverse backgrounds. Our analysis reveals that ML models surpass human evaluators in fairness consistency by margins ranging from 14.08\% to 18.79\%. Our findings highlight the potential of using ML to enhance fairness in admissions while maintaining high accuracy, advocating a hybrid approach combining human judgement and ML models.
- Abstract(参考訳): 機械学習(ML)の予測と人間の意思決定の両方の公平性は不可欠だが、どちらもアルゴリズムやMLのデータ駆動など、人間の認知や主観といった、さまざまな形式の偏見に影響を受けやすい。
本研究では,870の応募者プロファイルからなる実世界の大学入試データセットを用いて,テキスト機能のためのBERT埋め込みとともに,XGB,Bi-LSTM,KNNの3つのMLモデルを活用する。
個人的公正性を評価するために,MLモデルと多様な背景を持つ人間専門家の意思決定における合意を定量化する一貫性指標を導入する。
分析の結果, MLモデルは, 14.08 % から 18.79 % までの範囲で, 公平性の整合性において, 人間の評価値を上回っていることがわかった。
本研究は,人間の判断モデルとMLモデルを組み合わせたハイブリッドアプローチを提唱し,高い精度を維持しつつ,入院時の公平性を高めるためにMLを使用することの可能性を強調した。
関連論文リスト
- Investigating the Capabilities and Limitations of Machine Learning for Identifying Bias in English Language Data with Information and Heritage Professionals [13.622709812029946]
支配的なMLアプローチはバイアスを取り除き、公正なモデルを作成することができると仮定している。
バイアスのある言語を識別するモデルを作成し、それを削除しようとするのではなく、データセットのバイアスに注意を向けます。
論文 参考訳(メタデータ) (2025-04-01T14:51:25Z) - Understanding trade-offs in classifier bias with quality-diversity optimization: an application to talent management [2.334978724544296]
公正なAIモデルを開発する上での大きな課題は、そのようなモデルをトレーニングする上で利用可能なデータのバイアスにある。
本稿では,データセットに固有のバイアスを可視化し,公平性と正確性の間の潜在的なトレードオフを理解する方法を提案する。
論文 参考訳(メタデータ) (2024-11-25T22:14:02Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - A Dynamic Model of Performative Human-ML Collaboration: Theory and Empirical Evidence [2.498836880652668]
本稿では,人間-機械学習協調システムにおける機械学習モデルの展開を考えるための新しい枠組みを提案する。
このフレームワークでは、MLレコメンデーションの導入によって、人間の意思決定のデータ生成プロセスが変化します。
多くのレベルのMLパフォーマンスにおいて、人間はML予測を改善することができる。
論文 参考訳(メタデータ) (2024-05-22T15:38:30Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Fairness-enhancing mixed effects deep learning improves fairness on in- and out-of-distribution clustered (non-iid) data [6.596656267996196]
フェア・ミックスド・エフェクト・ディープ・ラーニング(Fair MEDL)フレームワークを紹介する。
Fair MEDLは、クラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を定量化する
敵の偏見を取り入れて、平等化オッド、デモグラフィックパリティ、カウンターファクトフェアネスの3つの主要な指標の公平性を促進する。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - Statistical inference for individual fairness [24.622418924551315]
機械学習モデルにおける個々人の公平性の違反を検出する問題に注目する。
我々は,対向コスト関数のための一連の推論ツールを開発した。
実世界のケーススタディでツールの有用性を実証します。
論文 参考訳(メタデータ) (2021-03-30T22:49:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。