論文の概要: Augmented Fairness: An Interpretable Model Augmenting Decision-Makers'
Fairness
- arxiv url: http://arxiv.org/abs/2011.08398v1
- Date: Tue, 17 Nov 2020 03:25:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 17:40:46.040590
- Title: Augmented Fairness: An Interpretable Model Augmenting Decision-Makers'
Fairness
- Title(参考訳): Augmented Fairness: 意思決定者の公正性を高める解釈可能なモデル
- Authors: Tong Wang and Maytal Saar-Tsechansky
- Abstract要約: ブラックボックス意思決定者の予測バイアスを軽減するためのモデルに依存しない手法を提案する。
提案手法は,ブラックボックス決定器が偏りのある特徴空間において,フェールサロゲート(fair surrogate)として機能する,いくつかの短い決定規則で置き換える手法である。
- 参考スコア(独自算出の注目度): 10.53972370889201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a model-agnostic approach for mitigating the prediction bias of a
black-box decision-maker, and in particular, a human decision-maker. Our method
detects in the feature space where the black-box decision-maker is biased and
replaces it with a few short decision rules, acting as a "fair surrogate". The
rule-based surrogate model is trained under two objectives, predictive
performance and fairness. Our model focuses on a setting that is common in
practice but distinct from other literature on fairness. We only have black-box
access to the model, and only a limited set of true labels can be queried under
a budget constraint. We formulate a multi-objective optimization for building a
surrogate model, where we simultaneously optimize for both predictive
performance and bias. To train the model, we propose a novel training algorithm
that combines a nondominated sorting genetic algorithm with active learning. We
test our model on public datasets where we simulate various biased "black-box"
classifiers (decision-makers) and apply our approach for interpretable
augmented fairness.
- Abstract(参考訳): 本研究では,ブラックボックス意思決定者の予測バイアスを軽減するためのモデル非依存アプローチを提案する。
提案手法は,ブラックボックス決定器がバイアスを受ける特徴空間で検出され,短い決定規則で置き換えられ,フェアサロゲートとして機能する。
ルールベースの代理モデルは、予測性能と公正性の2つの目標の下で訓練される。
我々のモデルは、実際は一般的だがフェアネスに関する他の文献とは異なる設定に焦点を当てている。
モデルへのアクセスはブラックボックスのみであり、真のラベルの限られたセットのみが予算制約の下でクエリできる。
代理モデルを構築するための多目的最適化を定式化し、予測性能とバイアスの両方を同時に最適化する。
そこで本研究では,非支配的ソート遺伝的アルゴリズムとアクティブラーニングを組み合わせた新しい学習アルゴリズムを提案する。
我々は、様々なバイアス付き「ブラックボックス」分類器(意思決定者)をシミュレートした公開データセット上でモデルをテストする。
関連論文リスト
- Understanding trade-offs in classifier bias with quality-diversity optimization: an application to talent management [2.334978724544296]
公正なAIモデルを開発する上での大きな課題は、そのようなモデルをトレーニングする上で利用可能なデータのバイアスにある。
本稿では,データセットに固有のバイアスを可視化し,公平性と正確性の間の潜在的なトレードオフを理解する方法を提案する。
論文 参考訳(メタデータ) (2024-11-25T22:14:02Z) - FairGridSearch: A Framework to Compare Fairness-Enhancing Models [0.0]
本稿では、二項分類に焦点を当て、公平性向上モデルを比較するための新しいフレームワークであるFairGridSearchを提案する。
この研究は、FairGridSearchを3つの一般的なデータセット(Adult, COMPAS, German Credit)に適用し、計量選択、基底推定器の選択、分類しきい値がモデルフェアネスに与える影響を分析する。
論文 参考訳(メタデータ) (2024-01-04T10:29:02Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - A Differentiable Distance Approximation for Fairer Image Classification [31.471917430653626]
我々は,AIモデルにおいて,偏りや不公平さを測定するために使用できる指標である,人口統計の分散の微分可能な近似を提案する。
我々の近似は、トレーニング中に余分なモデルを必要としない通常のトレーニング目標と共に最適化できる。
提案手法は,タスクやデータセットのさまざまなシナリオにおけるAIモデルの公平性を改善する。
論文 参考訳(メタデータ) (2022-10-09T23:02:18Z) - fairmodels: A Flexible Tool For Bias Detection, Visualization, And
Mitigation [3.548416925804316]
この記事では、公平性を検証し、分類モデルのバイアスを取り除くのに役立つRパッケージのフェアモデルを紹介します。
実装された関数と公平度メトリクスは、異なる視点からモデル公平性検証を可能にする。
このパッケージには、モデルの差別を減らそうとするバイアス緩和の一連の方法が含まれている。
論文 参考訳(メタデータ) (2021-04-01T15:06:13Z) - Design of Dynamic Experiments for Black-Box Model Discrimination [72.2414939419588]
選択したいような動的モデル判別の設定を考えてみましょう。 (i) 最高のメカニスティックな時間変化モデルと (ii) 最高のモデルパラメータ推定値です。
勾配情報にアクセス可能な競合する力学モデルに対しては、既存の手法を拡張し、より広い範囲の問題の不確実性を組み込む。
これらのブラックボックスモデルをガウス過程サロゲートモデルに置き換えることで、モデル識別設定を拡張して、競合するブラックボックスモデルをさらに取り入れる。
論文 参考訳(メタデータ) (2021-02-07T11:34:39Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - FairALM: Augmented Lagrangian Method for Training Fair Models with
Little Regret [42.66567001275493]
現在、我々がモデルに提示するデータセットのバイアスのため、公正な公開トレーニングが不公平なモデルにつながることは受け入れられている。
そこで本研究では,モデルのトレーニング中に公平性を同時に課すメカニズムについて検討する。
論文 参考訳(メタデータ) (2020-04-03T03:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。