論文の概要: Fairkit, Fairkit, on the Wall, Who's the Fairest of Them All? Supporting
Data Scientists in Training Fair Models
- arxiv url: http://arxiv.org/abs/2012.09951v1
- Date: Thu, 17 Dec 2020 21:59:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 07:13:21.545755
- Title: Fairkit, Fairkit, on the Wall, Who's the Fairest of Them All? Supporting
Data Scientists in Training Fair Models
- Title(参考訳): Fairkit, Fairkit, on the Wall, Who's the Fairest of Them All?
フェアモデルトレーニングにおけるデータサイエンティストの支援
- Authors: Brittany Johnson, Jesse Bartola, Rico Angell, Katherine Keith, Sam
Witty, Stephen J. Giguere, Yuriy Brun
- Abstract要約: fairkit-learnは,データサイエンティストが公平性を判断し理解するためのツールキットである。
Fairkit-learnは最先端の機械学習ツールで動作し、同じインターフェースを使って採用を容易にする。
- 参考スコア(独自算出の注目度): 7.227008179076844
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Modern software relies heavily on data and machine learning, and affects
decisions that shape our world. Unfortunately, recent studies have shown that
because of biases in data, software systems frequently inject bias into their
decisions, from producing better closed caption transcriptions of men's voices
than of women's voices to overcharging people of color for financial loans. To
address bias in machine learning, data scientists need tools that help them
understand the trade-offs between model quality and fairness in their specific
data domains. Toward that end, we present fairkit-learn, a toolkit for helping
data scientists reason about and understand fairness. Fairkit-learn works with
state-of-the-art machine learning tools and uses the same interfaces to ease
adoption. It can evaluate thousands of models produced by multiple machine
learning algorithms, hyperparameters, and data permutations, and compute and
visualize a small Pareto-optimal set of models that describe the optimal
trade-offs between fairness and quality. We evaluate fairkit-learn via a user
study with 54 students, showing that students using fairkit-learn produce
models that provide a better balance between fairness and quality than students
using scikit-learn and IBM AI Fairness 360 toolkits. With fairkit-learn, users
can select models that are up to 67% more fair and 10% more accurate than the
models they are likely to train with scikit-learn.
- Abstract(参考訳): 現代のソフトウェアはデータと機械学習に大きく依存しており、世界を形成する決定に影響を与える。
残念なことに、最近の研究では、データに偏りがあるため、ソフトウェアシステムは、女性の声よりも男性の声のより良い字幕の書き起こしを生成することから、金融ローンのために有色人種の人々を過大に引き込むことまで、彼らの決定にバイアスをしばしば注入していることが示されている。
機械学習のバイアスに対処するために、データサイエンティストは、特定のデータ領域におけるモデル品質と公平性の間のトレードオフを理解するためのツールが必要である。
その目的に向けて,データサイエンティストが公平性を判断し理解するためのツールキットであるfairkit-learnを提案する。
Fairkit-learnは最先端の機械学習ツールで動作し、同じインターフェースを使って採用を容易にする。
複数の機械学習アルゴリズム、ハイパーパラメータ、データ置換によって生成される何千ものモデルを評価し、フェアネスと品質の間の最適なトレードオフを記述する小さなパレート最適モデルの集合を計算し視覚化することができる。
その結果,fairkit-learnを利用する学生は,scikit-learn と ibm ai fairness 360 ツールキットを用いた学生よりも,公平性と品質のバランスが良いモデルを作成していることがわかった。
fairkit-learnでは、scikit-learnでトレーニングされるであろうモデルよりも、最大67%公平で10%精度の高いモデルを選択することができる。
関連論文リスト
- FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシを保護するために,サーバ内の統一表現からプライバシ情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z) - Fair Classification via Transformer Neural Networks: Case Study of an
Educational Domain [0.0913755431537592]
本稿では,Law Schoolのニューラルネットワークを用いた変圧器ネットワークにおけるフェアネス制約の予備的検討を行う。
フェアネス指標を用いて評価を行い、フェアネスと精度のトレードオフを確認しました。
論文 参考訳(メタデータ) (2022-06-03T06:34:16Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Can We Achieve Fairness Using Semi-Supervised Learning? [13.813788753789428]
半教師付き手法を用いて、公平な分類モデルを作成する。
当社のフレームワークであるFair-SSLは,ラベル付きデータを入力として,ラベルなしデータの擬似ラベルを生成する。
Fair-SSLは3つの最先端バイアス軽減アルゴリズムと同じようなパフォーマンスを実現している。
論文 参考訳(メタデータ) (2021-11-03T06:47:47Z) - Achieving Model Fairness in Vertical Federated Learning [47.8598060954355]
垂直連合学習(VFL)は、複数の企業が重複しない機能を保有して、プライベートデータやモデルパラメータを開示することなく、機械学習モデルを強化することを可能にする。
VFLは公平性の問題に悩まされており、すなわち、学習されたモデルはセンシティブな属性を持つグループに対して不公平に差別的である可能性がある。
この問題に対処するための公平なVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-17T04:40:11Z) - FedKD: Communication Efficient Federated Learning via Knowledge
Distillation [56.886414139084216]
フェデレーション学習は、分散データからインテリジェントモデルを学ぶために広く使用されている。
フェデレートラーニングでは、クライアントはモデルラーニングの各イテレーションでローカルモデルの更新を伝える必要がある。
本稿では,知識蒸留に基づくコミュニケーション効率のよいフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2021-08-30T15:39:54Z) - BiFair: Training Fair Models with Bilevel Optimization [8.2509884277533]
我々は,ユーティリティの最小化と公正な関心の喪失を両立させる,BiFairという新しいトレーニングアルゴリズムを開発した。
我々のアルゴリズムは、常により良い性能、すなわち、与えられた公正度メトリックのより優れた値、あるいはより高い精度で到達する。
論文 参考訳(メタデータ) (2021-06-03T22:36:17Z) - Distill on the Go: Online knowledge distillation in self-supervised
learning [1.1470070927586016]
最近の研究では、より広範でより深いモデルは、小さなモデルよりも自己監督学習の恩恵を受けることが示されている。
単段階オンライン知識蒸留を用いた自己指導型学習パラダイムであるDistill-on-the-Go(DoGo)を提案する。
以上の結果から,ノイズラベルや限定ラベルの存在下でのパフォーマンス向上がみられた。
論文 参考訳(メタデータ) (2021-04-20T09:59:23Z) - On the Basis of Sex: A Review of Gender Bias in Machine Learning
Applications [0.0]
まず、機械学習のジェンダーバイアスの実践例をいくつか紹介する。
次に、機械学習モデルをより公平にする方法に対処するために、最も広く使われているフェアネスの形式化を詳述する。
論文 参考訳(メタデータ) (2021-04-06T14:11:16Z) - Model-Contrastive Federated Learning [92.9075661456444]
フェデレーションラーニングにより、複数のパーティがローカルデータを伝達することなく、機械学習モデルを共同でトレーニングできます。
MOON:モデルコントラスト連合学習を提案します。
実験の結果,MOONは様々な画像分類タスクにおいて,他の最先端のフェデレーション学習アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2021-03-30T11:16:57Z) - Visualising Deep Network's Time-Series Representations [93.73198973454944]
機械学習モデルの普及にもかかわらず、多くの場合、モデルの内部で起きていることに関する洞察のないブラックボックスとして運用される。
本稿では,多次元時系列データの可視化に着目し,この問題に対処する手法を提案する。
高周波在庫市場データセットの実験は、この方法が迅速かつ識別可能な可視化を提供することを示しています。
論文 参考訳(メタデータ) (2021-03-12T09:53:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。