論文の概要: fAux: Testing Individual Fairness via Gradient Alignment
- arxiv url: http://arxiv.org/abs/2210.06288v1
- Date: Mon, 10 Oct 2022 21:27:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 13:08:11.602719
- Title: fAux: Testing Individual Fairness via Gradient Alignment
- Title(参考訳): fAux: 勾配アライメントによる個々のフェアネスのテスト
- Authors: Giuseppe Castiglione, Ga Wu, Christopher Srinivasa, Simon Prince
- Abstract要約: いずれの要件も持たない個別の公正性をテストするための新しいアプローチについて述べる。
提案手法は,合成データセットと実世界のデータセットの識別を効果的に行う。
- 参考スコア(独自算出の注目度): 2.5329739965085785
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Machine learning models are vulnerable to biases that result in unfair
treatment of individuals from different populations. Recent work that aims to
test a model's fairness at the individual level either relies on domain
knowledge to choose metrics, or on input transformations that risk generating
out-of-domain samples. We describe a new approach for testing individual
fairness that does not have either requirement. We propose a novel criterion
for evaluating individual fairness and develop a practical testing method based
on this criterion which we call fAux (pronounced fox). This is based on
comparing the derivatives of the predictions of the model to be tested with
those of an auxiliary model, which predicts the protected variable from the
observed data. We show that the proposed method effectively identifies
discrimination on both synthetic and real-world datasets, and has quantitative
and qualitative advantages over contemporary methods.
- Abstract(参考訳): 機械学習モデルは、異なる集団の個人が不公平に扱われるバイアスに弱い。
個々のレベルでモデルの公平性をテストしようとする最近の作業は、メトリクスを選択するためのドメイン知識に依存するか、ドメイン外のサンプルを生成するリスクを負う入力変換に依存する。
いずれの要件も持たない個別の公正性をテストするための新しいアプローチについて述べる。
個々人の公正さを評価するための新しい基準を提案し,fAux(キツネ)と呼ばれるこの基準に基づく実践的試験法を開発した。
これは、テスト対象モデルの予測の導出と、観測データから保護された変数を予測する補助モデルの導出を比較することに基づいている。
提案手法は,合成データと実世界データの両方における識別を効果的に識別し,現代手法よりも定量的・質的優位性を有することを示す。
関連論文リスト
- Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - A Comprehensive Survey on Test-Time Adaptation under Distribution Shifts [143.14128737978342]
新たなパラダイムであるテスト時適応は、事前トレーニングされたモデルをテスト中にラベルのないデータに適用し、予測を行う可能性がある。
このパラダイムの最近の進歩は、推論に先立って自己適応モデルのトレーニングにラベルのないデータを活用するという大きな利点を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-03-27T16:32:21Z) - Personalized Interpretable Classification [8.806213269230057]
我々は、新たなデータマイニング問題として、パーソナライズされた解釈可能な分類を正式に導入する第一歩を踏み出します。
実データ集合に関する一連の実証的研究を行う。
我々のアルゴリズムは、これら最先端(SOTA)の解釈可能な分類器と同じレベルの予測精度を達成できる。
論文 参考訳(メタデータ) (2023-02-06T01:59:16Z) - Provable Fairness for Neural Network Models using Formal Verification [10.90121002896312]
本稿では,ニューラルネットワークモデルの特性を検証する形式的手法を用いて,公平性を向上する手法を提案する。
適切なトレーニングによって、AUCスコアの1%未満のコストで、平均65.4%の不公平さを削減できることを示す。
論文 参考訳(メタデータ) (2022-12-16T16:54:37Z) - Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model Multiplicity [10.144058870887061]
1つの予測器が等しく機能するモデルのグループからアドホックに選択された場合、個人は害を受ける可能性があると我々は主張する。
これらの不公平性は実生活で容易に発見でき、技術的手段だけで緩和することは困難である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-14T14:33:39Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Fairness in the Eyes of the Data: Certifying Machine-Learning Models [38.09830406613629]
本稿では,対話型およびプライバシ保護テストに基づいて,モデルの公正度を認定するフレームワークを提案する。
テストデータはテスタにのみプライベートに提供されるか、あるいはモデル作成者にも事前に公開されている2つのシナリオに対処します。
我々は、参加者の機密データを隠蔽しながら、モデルへのブラックボックスアクセスのみを使用して、公正性テストと認定推論を自動化する暗号技術を提供する。
論文 参考訳(メタデータ) (2020-09-03T09:22:39Z) - A One-step Approach to Covariate Shift Adaptation [82.01909503235385]
多くの機械学習シナリオにおけるデフォルトの前提は、トレーニングとテストサンプルは同じ確率分布から引き出されることである。
予測モデルと関連する重みを1つの最適化で共同で学習する新しいワンステップアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-08T11:35:47Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Achieving Equalized Odds by Resampling Sensitive Attributes [13.114114427206678]
等価性の概念をほぼ満足する予測モデルを学習するためのフレキシブルなフレームワークを提案する。
この微分可能な関数は、モデルパラメータを等化奇数に向けて駆動するペナルティとして使用される。
本研究は,予測規則が本性質に反するか否かを検出するための公式な仮説テストを開発する。
論文 参考訳(メタデータ) (2020-06-08T00:18:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。