論文の概要: Fairkit, Fairkit, on the Wall, Who's the Fairest of Them All? Supporting
Data Scientists in Training Fair Models
- arxiv url: http://arxiv.org/abs/2012.09951v1
- Date: Thu, 17 Dec 2020 21:59:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 07:13:21.545755
- Title: Fairkit, Fairkit, on the Wall, Who's the Fairest of Them All? Supporting
Data Scientists in Training Fair Models
- Title(参考訳): Fairkit, Fairkit, on the Wall, Who's the Fairest of Them All?
フェアモデルトレーニングにおけるデータサイエンティストの支援
- Authors: Brittany Johnson, Jesse Bartola, Rico Angell, Katherine Keith, Sam
Witty, Stephen J. Giguere, Yuriy Brun
- Abstract要約: fairkit-learnは,データサイエンティストが公平性を判断し理解するためのツールキットである。
Fairkit-learnは最先端の機械学習ツールで動作し、同じインターフェースを使って採用を容易にする。
- 参考スコア(独自算出の注目度): 7.227008179076844
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Modern software relies heavily on data and machine learning, and affects
decisions that shape our world. Unfortunately, recent studies have shown that
because of biases in data, software systems frequently inject bias into their
decisions, from producing better closed caption transcriptions of men's voices
than of women's voices to overcharging people of color for financial loans. To
address bias in machine learning, data scientists need tools that help them
understand the trade-offs between model quality and fairness in their specific
data domains. Toward that end, we present fairkit-learn, a toolkit for helping
data scientists reason about and understand fairness. Fairkit-learn works with
state-of-the-art machine learning tools and uses the same interfaces to ease
adoption. It can evaluate thousands of models produced by multiple machine
learning algorithms, hyperparameters, and data permutations, and compute and
visualize a small Pareto-optimal set of models that describe the optimal
trade-offs between fairness and quality. We evaluate fairkit-learn via a user
study with 54 students, showing that students using fairkit-learn produce
models that provide a better balance between fairness and quality than students
using scikit-learn and IBM AI Fairness 360 toolkits. With fairkit-learn, users
can select models that are up to 67% more fair and 10% more accurate than the
models they are likely to train with scikit-learn.
- Abstract(参考訳): 現代のソフトウェアはデータと機械学習に大きく依存しており、世界を形成する決定に影響を与える。
残念なことに、最近の研究では、データに偏りがあるため、ソフトウェアシステムは、女性の声よりも男性の声のより良い字幕の書き起こしを生成することから、金融ローンのために有色人種の人々を過大に引き込むことまで、彼らの決定にバイアスをしばしば注入していることが示されている。
機械学習のバイアスに対処するために、データサイエンティストは、特定のデータ領域におけるモデル品質と公平性の間のトレードオフを理解するためのツールが必要である。
その目的に向けて,データサイエンティストが公平性を判断し理解するためのツールキットであるfairkit-learnを提案する。
Fairkit-learnは最先端の機械学習ツールで動作し、同じインターフェースを使って採用を容易にする。
複数の機械学習アルゴリズム、ハイパーパラメータ、データ置換によって生成される何千ものモデルを評価し、フェアネスと品質の間の最適なトレードオフを記述する小さなパレート最適モデルの集合を計算し視覚化することができる。
その結果,fairkit-learnを利用する学生は,scikit-learn と ibm ai fairness 360 ツールキットを用いた学生よりも,公平性と品質のバランスが良いモデルを作成していることがわかった。
fairkit-learnでは、scikit-learnでトレーニングされるであろうモデルよりも、最大67%公平で10%精度の高いモデルを選択することができる。
関連論文リスト
- Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Fair Classification via Transformer Neural Networks: Case Study of an
Educational Domain [0.0913755431537592]
本稿では,Law Schoolのニューラルネットワークを用いた変圧器ネットワークにおけるフェアネス制約の予備的検討を行う。
フェアネス指標を用いて評価を行い、フェアネスと精度のトレードオフを確認しました。
論文 参考訳(メタデータ) (2022-06-03T06:34:16Z) - Distill on the Go: Online knowledge distillation in self-supervised
learning [1.1470070927586016]
最近の研究では、より広範でより深いモデルは、小さなモデルよりも自己監督学習の恩恵を受けることが示されている。
単段階オンライン知識蒸留を用いた自己指導型学習パラダイムであるDistill-on-the-Go(DoGo)を提案する。
以上の結果から,ノイズラベルや限定ラベルの存在下でのパフォーマンス向上がみられた。
論文 参考訳(メタデータ) (2021-04-20T09:59:23Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - Do the Machine Learning Models on a Crowd Sourced Platform Exhibit Bias?
An Empirical Study on Model Fairness [7.673007415383724]
5つの異なるタスクに使用したKaggleから、40の上位モデルのベンチマークを作成しました。
これらのモデルに7つの緩和手法を適用し、公正性、緩和結果、および性能への影響を分析した。
論文 参考訳(メタデータ) (2020-05-21T23:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。