論文の概要: Do the Machine Learning Models on a Crowd Sourced Platform Exhibit Bias?
An Empirical Study on Model Fairness
- arxiv url: http://arxiv.org/abs/2005.12379v2
- Date: Tue, 22 Sep 2020 17:27:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 23:12:42.497791
- Title: Do the Machine Learning Models on a Crowd Sourced Platform Exhibit Bias?
An Empirical Study on Model Fairness
- Title(参考訳): クラウドソースプラットフォーム上の機械学習モデルはバイアスを示すか?
モデルフェアネスに関する実証的研究
- Authors: Sumon Biswas and Hridesh Rajan
- Abstract要約: 5つの異なるタスクに使用したKaggleから、40の上位モデルのベンチマークを作成しました。
これらのモデルに7つの緩和手法を適用し、公正性、緩和結果、および性能への影響を分析した。
- 参考スコア(独自算出の注目度): 7.673007415383724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models are increasingly being used in important
decision-making software such as approving bank loans, recommending criminal
sentencing, hiring employees, and so on. It is important to ensure the fairness
of these models so that no discrimination is made based on protected attribute
(e.g., race, sex, age) while decision making. Algorithms have been developed to
measure unfairness and mitigate them to a certain extent. In this paper, we
have focused on the empirical evaluation of fairness and mitigations on
real-world machine learning models. We have created a benchmark of 40 top-rated
models from Kaggle used for 5 different tasks, and then using a comprehensive
set of fairness metrics, evaluated their fairness. Then, we have applied 7
mitigation techniques on these models and analyzed the fairness, mitigation
results, and impacts on performance. We have found that some model optimization
techniques result in inducing unfairness in the models. On the other hand,
although there are some fairness control mechanisms in machine learning
libraries, they are not documented. The mitigation algorithm also exhibit
common patterns such as mitigation in the post-processing is often costly (in
terms of performance) and mitigation in the pre-processing stage is preferred
in most cases. We have also presented different trade-off choices of fairness
mitigation decisions. Our study suggests future research directions to reduce
the gap between theoretical fairness aware algorithms and the software
engineering methods to leverage them in practice.
- Abstract(参考訳): 機械学習モデルは、銀行ローンの承認、刑事判決の推薦、従業員の雇用など、重要な意思決定ソフトウェアでますます使われている。
これらのモデルの公平性を保証することは、意思決定中に保護された属性(例えば人種、性別、年齢)に基づいて差別を起こさないために重要である。
不公平さを計測し、ある程度緩和するためにアルゴリズムが開発されている。
本稿では,実世界の機械学習モデルにおける公平性と緩和の実証的評価に着目する。
われわれは、Kaggleが5つのタスクに使用した40の上位モデルのベンチマークを作成し、その上で、総合的な公正度測定値を使用して、その公正度を評価した。
そして,これらのモデルに7つの緩和手法を適用し,公平性,緩和結果,性能への影響を分析した。
モデル最適化手法によって、モデルに不公平が生じていることが判明した。
一方、機械学習ライブラリには公平性制御機構がいくつか存在するが、それらは文書化されていない。
緩和アルゴリズムはまた、後処理の緩和はしばしばコストがかかり(性能の観点から)、前処理段階の緩和が好ましいなど、一般的なパターンを示す。
また、公正緩和決定の異なるトレードオフ選択も提示しました。
本研究は, 理論的公平性を考慮したアルゴリズムとソフトウェア工学的手法とのギャップを減らすための今後の研究方向を提案する。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - FairGridSearch: A Framework to Compare Fairness-Enhancing Models [0.0]
本稿では、二項分類に焦点を当て、公平性向上モデルを比較するための新しいフレームワークであるFairGridSearchを提案する。
この研究は、FairGridSearchを3つの一般的なデータセット(Adult, COMPAS, German Credit)に適用し、計量選択、基底推定器の選択、分類しきい値がモデルフェアネスに与える影響を分析する。
論文 参考訳(メタデータ) (2024-01-04T10:29:02Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Revealing Unfair Models by Mining Interpretable Evidence [50.48264727620845]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。
本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。
本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (2022-07-12T20:03:08Z) - Automatic Fairness Testing of Neural Classifiers through Adversarial
Sampling [8.2868128804393]
本稿では,識別サンプルを体系的に検索するスケーラブルで効果的な手法を提案する。
最先端の手法と比較して、我々の手法は勾配計算やクラスタリングのような軽量な手法のみを用いる。
再訓練されたモデルは、それぞれ平均57.2%と60.2%の差別を減少させる。
論文 参考訳(メタデータ) (2021-07-17T03:47:08Z) - The Importance of Modeling Data Missingness in Algorithmic Fairness: A
Causal Perspective [14.622708494548363]
機械学習のためのトレーニングデータセットには、ある種の欠落があることが多い。
この欠如は、無視されると、モデルのデプロイ時にトレーニング手順のフェアネス保証を無効にする。
一般的な公平性アルゴリズムで使用される様々な分布が、トレーニングデータから回復できない、または回復できない条件を示します。
論文 参考訳(メタデータ) (2020-12-21T16:10:00Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - FairALM: Augmented Lagrangian Method for Training Fair Models with
Little Regret [42.66567001275493]
現在、我々がモデルに提示するデータセットのバイアスのため、公正な公開トレーニングが不公平なモデルにつながることは受け入れられている。
そこで本研究では,モデルのトレーニング中に公平性を同時に課すメカニズムについて検討する。
論文 参考訳(メタデータ) (2020-04-03T03:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。