論文の概要: fairmodels: A Flexible Tool For Bias Detection, Visualization, And
Mitigation
- arxiv url: http://arxiv.org/abs/2104.00507v1
- Date: Thu, 1 Apr 2021 15:06:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:49:02.693622
- Title: fairmodels: A Flexible Tool For Bias Detection, Visualization, And
Mitigation
- Title(参考訳): fairmodels: バイアス検出、可視化、緩和のための柔軟なツール
- Authors: Jakub Wi\'sniewski, Przemys{\l}aw Biecek
- Abstract要約: この記事では、公平性を検証し、分類モデルのバイアスを取り除くのに役立つRパッケージのフェアモデルを紹介します。
実装された関数と公平度メトリクスは、異なる視点からモデル公平性検証を可能にする。
このパッケージには、モデルの差別を減らそうとするバイアス緩和の一連の方法が含まれている。
- 参考スコア(独自算出の注目度): 3.548416925804316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning decision systems are getting omnipresent in our lives. From
dating apps to rating loan seekers, algorithms affect both our well-being and
future. Typically, however, these systems are not infallible. Moreover, complex
predictive models are really eager to learn social biases present in historical
data that can lead to increasing discrimination. If we want to create models
responsibly then we need tools for in-depth validation of models also from the
perspective of potential discrimination. This article introduces an R package
fairmodels that helps to validate fairness and eliminate bias in classification
models in an easy and flexible fashion. The fairmodels package offers a
model-agnostic approach to bias detection, visualization and mitigation. The
implemented set of functions and fairness metrics enables model fairness
validation from different perspectives. The package includes a series of
methods for bias mitigation that aim to diminish the discrimination in the
model. The package is designed not only to examine a single model, but also to
facilitate comparisons between multiple models.
- Abstract(参考訳): 機械学習の意思決定システムは、私たちの生活に普遍化しつつある。
デートアプリから借り手の評価まで、アルゴリズムは私たちの幸福と未来の両方に影響します。
しかし、一般的にこれらのシステムは失敗しない。
さらに、複雑な予測モデルは、差別の増大につながる可能性のある歴史的データに存在する社会的偏見を本当に学ぼうとしている。
責任を持ってモデルを作成したいのであれば、潜在的な差別の観点から、モデルの詳細な検証のためのツールが必要です。
この記事では、公平性を検証し、分類モデルのバイアスを簡単かつ柔軟な方法で排除するRパッケージフェアモデルを紹介します。
Fairmodelsパッケージはバイアス検出、可視化、緩和に対するモデルに依存しないアプローチを提供する。
実装された関数セットと公正度メトリクスは、異なる視点からモデル公正性検証を可能にする。
このパッケージには、モデルの差別を減らそうとするバイアス緩和の一連の方法が含まれている。
このパッケージは単一のモデルを調べるだけでなく、複数のモデルの比較を容易にするように設計されている。
関連論文リスト
- Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - fairml: A Statistician's Take on Fair Machine Learning Modelling [0.0]
本稿では,これまでの研究(Scutari, Panero, Proissl 2022)および関連モデルを文献で実装したfairmlパッケージについて述べる。
Fairmlは古典的な統計モデルと ペナル化された回帰結果に基づいて設計されています
フェアネスを強制するために使われる制約は、推定をモデル化することであり、望まれるモデルファミリと各アプリケーションに対するフェアネス定義の混合とマッチングを可能にする。
論文 参考訳(メタデータ) (2023-05-03T09:59:53Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - Revealing Unfair Models by Mining Interpretable Evidence [50.48264727620845]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。
本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。
本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (2022-07-12T20:03:08Z) - xFAIR: Better Fairness via Model-based Rebalancing of Protected
Attributes [15.525314212209564]
機械学習ソフトウェアは、特定の保護された社会グループに対して不適切な差別を行うモデルを生成することができる。
本稿では,モデルに基づく外挿法であるxFAIRを提案する。
論文 参考訳(メタデータ) (2021-10-03T22:10:14Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。