論文の概要: Towards Algorithmic Fairness by means of Instance-level Data Re-weighting based on Shapley Values
- arxiv url: http://arxiv.org/abs/2303.01928v4
- Date: Mon, 10 Jun 2024 21:10:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-13 01:28:06.770758
- Title: Towards Algorithmic Fairness by means of Instance-level Data Re-weighting based on Shapley Values
- Title(参考訳): 共有値に基づくインスタンスレベルのデータ再重み付けによるアルゴリズムフェアネスを目指して
- Authors: Adrian Arnaiz-Rodriguez, Nuria Oliver,
- Abstract要約: 本稿では,公正なアルゴリズム決定のための新しいインスタンスレベルのデータ再重み付け手法であるFairShapを提案する。
異なる性質のいくつかの最先端データセットに対して、FairShapを実証的に検証する。
ベースラインと同等の精度で、より公平なモデルを生成する方法を示す。
- 参考スコア(独自算出の注目度): 6.752538702870792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic fairness is of utmost societal importance, yet state-of-the-art large-scale machine learning models require training with massive datasets that are frequently biased. In this context, pre-processing methods that focus on modeling and correcting bias in the data emerge as valuable approaches. In this paper, we propose FairShap, a novel instance-level data re-weighting method for fair algorithmic decision-making through data valuation by means of Shapley Values. FairShap is model-agnostic and easily interpretable. It measures the contribution of each training data point to a predefined fairness metric. We empirically validate FairShap on several state-of-the-art datasets of different nature, with a variety of training scenarios and machine learning models and show how it yields fairer models with similar levels of accuracy than the baselines. We illustrate FairShap's interpretability by means of histograms and latent space visualizations. Moreover, we perform a utility-fairness study and analyze FairShap's computational cost depending on the size of the dataset and the number of features. We believe that FairShap represents a novel contribution in interpretable and model-agnostic approaches to algorithmic fairness that yields competitive accuracy even when only biased training datasets are available.
- Abstract(参考訳): アルゴリズムの公正性は、最も社会的に重要であるが、最先端の大規模機械学習モデルは、しばしばバイアスを受ける巨大なデータセットによるトレーニングを必要とする。
この文脈では、データのモデリングとバイアスの修正に焦点を当てた事前処理手法が、価値あるアプローチとして現れます。
本稿では,共有値を用いたデータ評価による公正なアルゴリズム決定のための,新しいインスタンスレベルのデータ再重み付け手法であるFairShapを提案する。
FairShapはモデルに依存しない、容易に解釈できる。
各トレーニングデータポイントのコントリビューションを、予め定義された公正度メトリックに測定する。
さまざまなトレーニングシナリオと機械学習モデルを備えた、さまざまな性質の最先端データセット上で、FairShapを実証的に検証し、ベースラインと同じような精度で、より公平なモデルを生成する方法を示します。
ヒストグラムと潜時空間の可視化によるFairShapの解釈可能性について説明する。
さらに,FairShapの計算コストを,データセットのサイズや特徴数によって分析する。
FairShapは、アルゴリズムの公正性に対する解釈およびモデルに依存しないアプローチにおいて、バイアス付きトレーニングデータセットのみが利用可能であっても、競争の正確性をもたらす新しい貢献であると考えています。
関連論文リスト
- Enhancing Model Fairness and Accuracy with Similarity Networks: A Methodological Approach [0.20718016474717196]
インスタンスを類似機能空間にマッピングするために、さまざまなテクニックを使用します。
本手法は, モデルフェアネスとデータセット分類複雑性の関係について, ペアワイズ類似性の分解能を調整できる。
論文 参考訳(メタデータ) (2024-11-08T15:43:01Z) - Data Shapley in One Training Run [88.59484417202454]
Data Shapleyは、機械学習コンテキストにおけるデータのコントリビューションに寄与するための、原則化されたフレームワークを提供する。
既存のアプローチでは、計算集約的な異なるデータサブセット上の再学習モデルが必要である。
本稿では、対象とするデータモデルに対するスケーラブルなデータ属性を提供することにより、これらの制限に対処するIn-Run Data Shapleyを紹介する。
論文 参考訳(メタデータ) (2024-06-16T17:09:24Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Data vs. Model Machine Learning Fairness Testing: An Empirical Study [23.535630175567146]
モデルトレーニング前後の公平性をテストすることによって、より包括的なアプローチを評価するための第一歩を踏み出します。
モデル依存度と独立公平度の関係を実証的に分析し,提案手法の有効性を評価する。
以上の結果から, トレーニング前の公平性テストは, バイアスデータ収集プロセスの早期取得において, より安価かつ効果的な手段であることが示唆された。
論文 参考訳(メタデータ) (2024-01-15T14:14:16Z) - Provable Fairness for Neural Network Models using Formal Verification [10.90121002896312]
本稿では,ニューラルネットワークモデルの特性を検証する形式的手法を用いて,公平性を向上する手法を提案する。
適切なトレーニングによって、AUCスコアの1%未満のコストで、平均65.4%の不公平さを削減できることを示す。
論文 参考訳(メタデータ) (2022-12-16T16:54:37Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - BiFair: Training Fair Models with Bilevel Optimization [8.2509884277533]
我々は,ユーティリティの最小化と公正な関心の喪失を両立させる,BiFairという新しいトレーニングアルゴリズムを開発した。
我々のアルゴリズムは、常により良い性能、すなわち、与えられた公正度メトリックのより優れた値、あるいはより高い精度で到達する。
論文 参考訳(メタデータ) (2021-06-03T22:36:17Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。