論文の概要: A Differentiable Distance Approximation for Fairer Image Classification
- arxiv url: http://arxiv.org/abs/2210.04369v1
- Date: Sun, 9 Oct 2022 23:02:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 16:19:53.018035
- Title: A Differentiable Distance Approximation for Fairer Image Classification
- Title(参考訳): フェアア画像分類のための微分距離近似
- Authors: Nicholas Rosa, Tom Drummond, Mehrtash Harandi
- Abstract要約: 我々は,AIモデルにおいて,偏りや不公平さを測定するために使用できる指標である,人口統計の分散の微分可能な近似を提案する。
我々の近似は、トレーニング中に余分なモデルを必要としない通常のトレーニング目標と共に最適化できる。
提案手法は,タスクやデータセットのさまざまなシナリオにおけるAIモデルの公平性を改善する。
- 参考スコア(独自算出の注目度): 31.471917430653626
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Naively trained AI models can be heavily biased. This can be particularly
problematic when the biases involve legally or morally protected attributes
such as ethnic background, age or gender. Existing solutions to this problem
come at the cost of extra computation, unstable adversarial optimisation or
have losses on the feature space structure that are disconnected from fairness
measures and only loosely generalise to fairness. In this work we propose a
differentiable approximation of the variance of demographics, a metric that can
be used to measure the bias, or unfairness, in an AI model. Our approximation
can be optimised alongside the regular training objective which eliminates the
need for any extra models during training and directly improves the fairness of
the regularised models. We demonstrate that our approach improves the fairness
of AI models in varied task and dataset scenarios, whilst still maintaining a
high level of classification accuracy. Code is available at
https://bitbucket.org/nelliottrosa/base_fairness.
- Abstract(参考訳): 訓練されたAIモデルは偏見が強い。
これは、民族的背景、年齢、性別など、法的または道徳的に保護された属性が偏見である場合、特に問題となる。
この問題の既存の解決策は、余分な計算、不安定な対向最適化、あるいはフェアネス測度から切り離された特徴空間構造に損失を与えるコストが伴う。
本研究では,aiモデルにおける偏りや不公平さを測定するための指標である,人口動態のばらつきの微分可能な近似を提案する。
我々の近似は、トレーニング中の追加モデルの必要性を排除し、正規化モデルの公正性を直接改善する通常のトレーニング目標と共に最適化することができる。
我々の手法は、高度な分類精度を維持しながら、さまざまなタスクやデータセットシナリオにおけるAIモデルの公平性を向上させることを実証している。
コードはhttps://bitbucket.org/nelliottrosa/base_fairnessで入手できる。
関連論文リスト
- Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Boosting Fair Classifier Generalization through Adaptive Priority
Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Gradient Based Activations for Accurate Bias-Free Learning [22.264226961225003]
このバイアス・精度のトレードオフを改善するために、偏微分器が実際に利用できることを示す。
具体的には、判別器の勾配を用いた特徴マスキング手法を用いる。
この単純なアプローチはバイアスを低減し、精度を大幅に向上させるのに有効であることを示す。
論文 参考訳(メタデータ) (2022-02-17T00:30:40Z) - Developing a novel fair-loan-predictor through a multi-sensitive
debiasing pipeline: DualFair [2.149265948858581]
我々は、DualFairと呼ばれる新しいバイアス緩和手法を作成し、MSPSOを扱える新しい公正度指標(すなわち、AWI)を開発する。
我々は、米国住宅ローンの包括的データセットを用いて、新しい緩和手法を検証し、我々の分類器、すなわち公正貸付予測器が、現在の最先端モデルよりも優れた公正度と精度の指標を得ることを示す。
論文 参考訳(メタデータ) (2021-10-17T23:13:43Z) - Using Pareto Simulated Annealing to Address Algorithmic Bias in Machine
Learning [2.055949720959582]
バランスの取れた精度と過小評価の両方を最適化する多目的最適化戦略を提案する。
我々は,この戦略の有効性を,1つの実世界のデータセットと2つの実世界のデータセットに示す。
論文 参考訳(メタデータ) (2021-05-31T15:51:43Z) - Addressing Fairness in Classification with a Model-Agnostic
Multi-Objective Algorithm [33.145522561104464]
分類における公平性の目標は、人種や性別などのセンシティブな属性に基づいて個人のグループを識別しない分類器を学習することである。
公正アルゴリズムを設計する1つのアプローチは、公正の概念の緩和を正規化項として使うことである。
我々はこの性質を利用して、既存の緩和よりも証明可能な公正の概念を近似する微分可能な緩和を定義する。
論文 参考訳(メタデータ) (2020-09-09T17:40:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。