論文の概要: Fairness And Performance In Harmony: Data Debiasing Is All You Need
- arxiv url: http://arxiv.org/abs/2411.17374v1
- Date: Tue, 26 Nov 2024 12:31:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:33:04.987270
- Title: Fairness And Performance In Harmony: Data Debiasing Is All You Need
- Title(参考訳): ハーモニーにおける公正さとパフォーマンス - データデバレッジ
- Authors: Junhua Liu, Wendy Wan Yee Hui, Roy Ka-Wei Lee, Kwan Hui Lim,
- Abstract要約: 本研究では,870のプロファイルを持つ実世界の大学入試データセットを用いて,公正さについて検討する。
個人的公正性については,さまざまな背景を持つ専門家とMLモデルによる意思決定の整合性を評価する。
その結果、MLモデルは人間を14.08%から18.79%上回った。
- 参考スコア(独自算出の注目度): 5.969005147375361
- License:
- Abstract: Fairness in both machine learning (ML) predictions and human decisions is critical, with ML models prone to algorithmic and data bias, and human decisions affected by subjectivity and cognitive bias. This study investigates fairness using a real-world university admission dataset with 870 profiles, leveraging three ML models, namely XGB, Bi-LSTM, and KNN. Textual features are encoded with BERT embeddings. For individual fairness, we assess decision consistency among experts with varied backgrounds and ML models, using a consistency score. Results show ML models outperform humans in fairness by 14.08% to 18.79%. For group fairness, we propose a gender-debiasing pipeline and demonstrate its efficacy in removing gender-specific language without compromising prediction performance. Post-debiasing, all models maintain or improve their classification accuracy, validating the hypothesis that fairness and performance can coexist. Our findings highlight ML's potential to enhance fairness in admissions while maintaining high accuracy, advocating a hybrid approach combining human judgement and ML models.
- Abstract(参考訳): 機械学習(ML)の予測と人間の決定の両方の公平性は重要であり、MLモデルはアルゴリズムやデータバイアスに傾向があり、主観性と認知バイアスの影響を受けやすい。
本研究では,870のプロファイルを持つ実世界の大学入試データセットを用いて,XGB,Bi-LSTM,KNNの3つのMLモデルを活用する。
テキスト機能はBERT埋め込みでエンコードされる。
個人的公正性については,さまざまな背景とMLモデルを持つ専門家の意思決定一貫性を,一貫性スコアを用いて評価する。
その結果、MLモデルは人間を14.08%から18.79%上回った。
グループフェアネスにおいて、予測性能を損なうことなく、性別依存言語を除去する効果を示す。
偏見の後、全てのモデルは分類の正確さを維持したり改善したりし、公平さと性能が共存できるという仮説を検証します。
本研究は,人間の判断モデルとMLモデルを組み合わせたハイブリッドアプローチを提唱し,高い精度を維持しつつ,入院時の公平性を向上するMLの可能性を明らかにするものである。
関連論文リスト
- Understanding trade-offs in classifier bias with quality-diversity optimization: an application to talent management [2.334978724544296]
公正なAIモデルを開発する上での大きな課題は、そのようなモデルをトレーニングする上で利用可能なデータのバイアスにある。
本稿では,データセットに固有のバイアスを可視化し,公平性と正確性の間の潜在的なトレードオフを理解する方法を提案する。
論文 参考訳(メタデータ) (2024-11-25T22:14:02Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - A Dynamic Model of Performative Human-ML Collaboration: Theory and Empirical Evidence [2.498836880652668]
本稿では,人間-機械学習協調システムにおける機械学習モデルの展開を考えるための新しい枠組みを提案する。
このフレームワークでは、MLレコメンデーションの導入によって、人間の意思決定のデータ生成プロセスが変化します。
多くのレベルのMLパフォーマンスにおいて、人間はML予測を改善することができる。
論文 参考訳(メタデータ) (2024-05-22T15:38:30Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Fairness-enhancing mixed effects deep learning improves fairness on in- and out-of-distribution clustered (non-iid) data [6.596656267996196]
フェア・ミックスド・エフェクト・ディープ・ラーニング(Fair MEDL)フレームワークを紹介する。
Fair MEDLは、クラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を定量化する
敵の偏見を取り入れて、平等化オッド、デモグラフィックパリティ、カウンターファクトフェアネスの3つの主要な指標の公平性を促進する。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - Statistical inference for individual fairness [24.622418924551315]
機械学習モデルにおける個々人の公平性の違反を検出する問題に注目する。
我々は,対向コスト関数のための一連の推論ツールを開発した。
実世界のケーススタディでツールの有用性を実証します。
論文 参考訳(メタデータ) (2021-03-30T22:49:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。