論文の概要: FairShap: A Data Re-weighting Approach for Algorithmic Fairness based on
Shapley Values
- arxiv url: http://arxiv.org/abs/2303.01928v2
- Date: Wed, 24 May 2023 11:55:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 01:51:47.431161
- Title: FairShap: A Data Re-weighting Approach for Algorithmic Fairness based on
Shapley Values
- Title(参考訳): FairShap: 共有値に基づくアルゴリズムフェアネスのためのデータ再重み付けアプローチ
- Authors: Adrian Arnaiz-Rodriguez, Francisco Escolano, Nuria Oliver
- Abstract要約: データバリュエーションによる公正なアルゴリズム決定のための新しい前処理(再重み付け)手法であるFairShapを提案する。
さまざまなトレーニングシナリオとモデルで、さまざまな性質の最先端データセットに対して、FairShapを実証的に検証しています。
この研究は、アルゴリズムの公正性に対する解釈可能かつモデルに依存しないアプローチにおける有望な方向性を表していると我々は信じている。
- 参考スコア(独自算出の注目度): 1.1602089225841632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic fairness is of utmost societal importance, yet the current trend
in large-scale machine learning models requires training with massive datasets
that are typically biased. In this context, pre-processing methods that focus
on modeling and correcting bias in the data emerge as valuable approaches. In
this paper, we propose FairShap, a novel pre-processing (re-weighting) method
for fair algorithmic decision-making through data valuation by means of Shapley
Values. Our approach is model agnostic and easily interpretable, as it measures
the contribution of each training data point to a predefined fairness metric.
We empirically validate FairShap on several state-of-the-art datasets of
different nature, with a variety of training scenarios and models and show how
it outperforms other methods, yielding fairer models with higher or similar
levels of accuracy. We also illustrate FairShap's interpretability by means of
histograms and latent space visualizations. We believe that this work
represents a promising direction in interpretable and model-agnostic approaches
to algorithmic fairness that yield competitive accuracy even when only biased
datasets are available.
- Abstract(参考訳): アルゴリズムの公正性は最も社会的に重要であるが、大規模な機械学習モデルの現在の傾向は、通常バイアスのある大量のデータセットによるトレーニングを必要とする。
この文脈では、データのモデリングとバイアスの修正に焦点を当てた事前処理手法が貴重なアプローチとして現れます。
本稿では,シェープ値を用いたデータ評価による公正なアルゴリズム決定のための新しい前処理(再重み付け)手法であるFairShapを提案する。
我々のアプローチはモデル非依存であり、事前定義されたフェアネスメトリックへの各トレーニングデータポイントの寄与度を測定するため、容易に解釈できる。
さまざまなトレーニングシナリオとモデルを用いて、異なる性質の最先端データセット上で、FairShapを実証的に検証し、それが他の方法よりも優れていることを示す。
また,ヒストグラムと潜在空間の可視化を用いて,fairshapの解釈可能性を示す。
この研究は、偏りのあるデータセットが利用可能であっても、アルゴリズムの公正性に対する解釈可能かつモデルに依存しないアプローチにおいて、有望な方向を示すと我々は信じている。
関連論文リスト
- Enhancing Fairness in Neural Networks Using FairVIC [0.0]
自動意思決定システム、特にディープラーニングモデルにおけるバイアスの緩和は、公平性を達成する上で重要な課題である。
FairVICは、トレーニング段階で固有のバイアスに対処することによって、ニューラルネットワークの公平性を高めるために設計された革新的なアプローチである。
我々は、モデルの精度を有害な程度に向上させることなく、テスト対象のすべての指標の公平性を大幅に改善する。
論文 参考訳(メタデータ) (2024-04-28T10:10:21Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [60.98692028151328]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,この学習規則が将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
我々は拡散モデルに一般結果を特化し、自己消費ループ内での最適な早期停止の有効性などの微妙な洞察を提供する。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Data vs. Model Machine Learning Fairness Testing: An Empirical Study [23.535630175567146]
モデルトレーニング前後の公平性をテストすることによって、より包括的なアプローチを評価するための第一歩を踏み出します。
モデル依存度と独立公平度の関係を実証的に分析し,提案手法の有効性を評価する。
以上の結果から, トレーニング前の公平性テストは, バイアスデータ収集プロセスの早期取得において, より安価かつ効果的な手段であることが示唆された。
論文 参考訳(メタデータ) (2024-01-15T14:14:16Z) - FairGridSearch: A Framework to Compare Fairness-Enhancing Models [0.0]
本稿では、二項分類に焦点を当て、公平性向上モデルを比較するための新しいフレームワークであるFairGridSearchを提案する。
この研究は、FairGridSearchを3つの一般的なデータセット(Adult, COMPAS, German Credit)に適用し、計量選択、基底推定器の選択、分類しきい値がモデルフェアネスに与える影響を分析する。
論文 参考訳(メタデータ) (2024-01-04T10:29:02Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - BiFair: Training Fair Models with Bilevel Optimization [8.2509884277533]
我々は,ユーティリティの最小化と公正な関心の喪失を両立させる,BiFairという新しいトレーニングアルゴリズムを開発した。
我々のアルゴリズムは、常により良い性能、すなわち、与えられた公正度メトリックのより優れた値、あるいはより高い精度で到達する。
論文 参考訳(メタデータ) (2021-06-03T22:36:17Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。