論文の概要: Making ML models fairer through explanations: the case of LimeOut
- arxiv url: http://arxiv.org/abs/2011.00603v1
- Date: Sun, 1 Nov 2020 19:07:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 23:01:39.917603
- Title: Making ML models fairer through explanations: the case of LimeOut
- Title(参考訳): MLモデルをより公平にする: LimeOutの場合
- Authors: Guilherme Alves, Vaishnavi Bhargava, Miguel Couceiro, Amedeo Napoli
- Abstract要約: アルゴリズムによる決定は今では日常的に使われており、複雑でバイアスのかかる機械学習(ML)プロセスに基づいている。
これは、偏見のある決定が個人や社会全体に与える影響を考えると、いくつかの懸念を提起する。
モデルフェアネスを改善するために,「フィーチャードロップアウト」というシンプルなアイデアと「アンサンブルアプローチ」を併用する方法について述べる。
- 参考スコア(独自算出の注目度): 7.952582509792971
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Algorithmic decisions are now being used on a daily basis, and based on
Machine Learning (ML) processes that may be complex and biased. This raises
several concerns given the critical impact that biased decisions may have on
individuals or on society as a whole. Not only unfair outcomes affect human
rights, they also undermine public trust in ML and AI. In this paper we address
fairness issues of ML models based on decision outcomes, and we show how the
simple idea of "feature dropout" followed by an "ensemble approach" can improve
model fairness. To illustrate, we will revisit the case of "LimeOut" that was
proposed to tackle "process fairness", which measures a model's reliance on
sensitive or discriminatory features. Given a classifier, a dataset and a set
of sensitive features, LimeOut first assesses whether the classifier is fair by
checking its reliance on sensitive features using "Lime explanations". If
deemed unfair, LimeOut then applies feature dropout to obtain a pool of
classifiers. These are then combined into an ensemble classifier that was
empirically shown to be less dependent on sensitive features without
compromising the classifier's accuracy. We present different experiments on
multiple datasets and several state of the art classifiers, which show that
LimeOut's classifiers improve (or at least maintain) not only process fairness
but also other fairness metrics such as individual and group fairness, equal
opportunity, and demographic parity.
- Abstract(参考訳): アルゴリズムによる決定は今では日常的に使われており、複雑でバイアスのかかる機械学習(ML)プロセスに基づいている。
これは、偏見のある決定が個人や社会全体に与える重大な影響を考えると、いくつかの懸念を引き起こす。
不公平な結果が人権に影響を及ぼすだけでなく、MLとAIに対する公的な信頼を損なう。
本稿では,決定結果に基づくMLモデルのフェアネス問題に対処し,シンプルな「フィーチャードロップアウト」とそれに続く「アンサンブルアプローチ」がモデルフェアネスをいかに改善するかを示す。
説明するために、モデルの敏感な特徴や差別的特徴への依存度を測定する「プロセスフェアネス」に取り組むために提案された「ライムアウト」の事例を再検討する。
分類器、データセット、センシティブな機能のセットが与えられた後、LimeOutはまず、分類器が「Lime説明」を使用してセンシティブな機能に依存するかどうかを判断する。
もし不公平と考えられる場合、limeoutは機能ドロップアウトを適用して分類器のプールを取得する。
これらをアンサンブル分類器に結合し、分類器の精度を損なうことなく、敏感な特徴に頼らないことを示した。
複数のデータセットとアート分類器のいくつかの状態について異なる実験を行い、LimeOutの分類器はプロセスフェアネスだけでなく、個人とグループフェアネス、平等機会、人口比率といった他のフェアネス指標も改善(または少なくとも維持)していることを示した。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z) - LimeOut: An Ensemble Approach To Improve Process Fairness [8.9379057739817]
プロセスの公平性に対処するために、"機能的なドロップアウト"に依存するフレームワークを提案する。
我々は「LIME Explanations」を用いて分類器の公平さを評価し、削除すべき感度のある特徴を判定する。
これは、アンサンブルが経験的に感度の低い特徴に依存せず、精度に改善または全く影響しないように示される分類器のプールを生成する。
論文 参考訳(メタデータ) (2020-06-17T09:00:58Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z) - Recovering from Biased Data: Can Fairness Constraints Improve Accuracy? [11.435833538081557]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、バイアスがあるだけでなく、真のデータ分布に最適な精度を持つ分類器を生成する。
公平性に制約されたERMによるこの問題の是正能力について検討する。
また、トレーニングデータの再重み付け、等化オッド、復号化パリティなど、他のリカバリ手法についても検討する。
論文 参考訳(メタデータ) (2019-12-02T22:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。