論文の概要: Bias Mitigation Framework for Intersectional Subgroups in Neural
Networks
- arxiv url: http://arxiv.org/abs/2212.13014v1
- Date: Mon, 26 Dec 2022 04:58:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 15:36:24.628394
- Title: Bias Mitigation Framework for Intersectional Subgroups in Neural
Networks
- Title(参考訳): ニューラルネットワークにおける部分群のバイアス軽減フレームワーク
- Authors: Narine Kokhlikyan, Bilal Alsallakh, Fulton Wang, Vivek Miglani, Oliver
Aobo Yang and David Adkins
- Abstract要約: 保護属性に関連付けられた交差部分群バイアスを緩和するフェアネス対応学習フレームワークを提案する。
提案手法は, 精度の低下をほとんど, あるいは全く起こさず, バイアスを低減するのに有効であることを示す。
- 参考スコア(独自算出の注目度): 4.757729624205252
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a fairness-aware learning framework that mitigates intersectional
subgroup bias associated with protected attributes. Prior research has
primarily focused on mitigating one kind of bias by incorporating complex
fairness-driven constraints into optimization objectives or designing
additional layers that focus on specific protected attributes. We introduce a
simple and generic bias mitigation approach that prevents models from learning
relationships between protected attributes and output variable by reducing
mutual information between them. We demonstrate that our approach is effective
in reducing bias with little or no drop in accuracy. We also show that the
models trained with our learning framework become causally fair and insensitive
to the values of protected attributes. Finally, we validate our approach by
studying feature interactions between protected and non-protected attributes.
We demonstrate that these interactions are significantly reduced when applying
our bias mitigation.
- Abstract(参考訳): 保護属性に関連付けられた交差部分群バイアスを緩和するフェアネス対応学習フレームワークを提案する。
従来の研究は、複雑な公平性駆動の制約を最適化の目的に組み込んだり、特定の保護された属性に焦点を当てた追加のレイヤを設計することで、偏見の軽減に重点を置いてきた。
本稿では,モデルが保護属性と出力変数の関係を学習することを防止し,それらの相互情報を低減し,単純で汎用的なバイアス緩和手法を提案する。
われわれの手法は、バイアスをほとんど、あるいは全く正確に減らすのに効果的であることを示す。
また、学習フレームワークでトレーニングされたモデルが、保護属性の値に対して因果的に公平で無関心になることを示す。
最後に,保護属性と非保護属性の特徴的相互作用を研究することにより,このアプローチを検証する。
これらの相互作用はバイアス緩和を施す際に著しく減少する。
関連論文リスト
- An Attention-based Framework for Fair Contrastive Learning [2.1605931466490795]
そこで本稿では,バイアスを考慮したインタラクションをモデル化するための注意機構を用いた,公正なコントラスト学習のための新しい手法を提案する。
我々の注意機構は、モデルに相反するバイアスを発生させるサンプルを避け、意味論的に意味のある表現を学習するのに役立つバイアスを誘発するサンプルに焦点をあてる。
論文 参考訳(メタデータ) (2024-11-22T07:11:35Z) - Edge-Only Universal Adversarial Attacks in Distributed Learning [49.546479320670464]
本研究では,攻撃者がモデルのエッジ部分のみにアクセスした場合に,ユニバーサルな敵攻撃を発生させる可能性について検討する。
提案手法は, エッジ側の重要な特徴を活用することで, 未知のクラウド部分において, 効果的な誤予測を誘導できることを示唆する。
ImageNetの結果は、未知のクラウド部分に対する強力な攻撃伝達性を示している。
論文 参考訳(メタデータ) (2024-11-15T11:06:24Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Mitigating Feature Gap for Adversarial Robustness by Feature
Disentanglement [61.048842737581865]
逆方向の微調整法は, 逆方向の訓練方法で, 自然に事前訓練されたモデルを微調整することにより, 逆方向の強靭性を高めることを目的としている。
特徴ギャップの原因となる潜伏する特徴を明示的にモデル化し,取り除く,アンタングルメントに基づくアプローチを提案する。
3つのベンチマークデータセットに対する実証的な評価は、我々のアプローチが既存の逆方向の微調整法や逆方向のトレーニングベースラインを超えていることを示している。
論文 参考訳(メタデータ) (2024-01-26T08:38:57Z) - Estimating and Implementing Conventional Fairness Metrics With
Probabilistic Protected Features [7.457585597068654]
限られた属性ラベルを持つ設定において,違反を計測・低減する手法を開発した。
提案手法は, 従来の手法よりも5.5倍の精度で, 真の相違を抑えることができることを示す。
論文 参考訳(メタデータ) (2023-10-02T22:30:25Z) - Using Positive Matching Contrastive Loss with Facial Action Units to
mitigate bias in Facial Expression Recognition [6.015556590955814]
本稿では、モデルがドメイン知識を用いてタスク関連機能に焦点をあてることによりバイアスを軽減することを提案する。
本手法を用いてタスク関連機能を組み込むことで,最小コストでモデルフェアネスを向上させることができることを示す。
論文 参考訳(メタデータ) (2023-03-08T21:28:02Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - A Low Rank Promoting Prior for Unsupervised Contrastive Learning [108.91406719395417]
提案手法は,従来の低階の促進をコントラスト学習の枠組みに効果的に組み込む新しい確率的グラフィカルモデルを構築する。
我々の仮説は、同じインスタンスクラスに属するすべてのサンプルが、小さな次元の同じ部分空間上にあることを明示的に要求する。
実証的な証拠は、提案アルゴリズムが複数のベンチマークにおける最先端のアプローチを明らかに上回っていることを示している。
論文 参考訳(メタデータ) (2021-08-05T15:58:25Z) - Adversarial Robustness through the Lens of Causality [105.51753064807014]
ディープニューラルネットワークの敵対的脆弱性は、機械学習において大きな注目を集めている。
我々は、因果関係を敵対的脆弱性の軽減に組み込むことを提案する。
我々の手法は、敵の脆弱性を緩和するために因果性を利用する最初の試みと見なすことができる。
論文 参考訳(メタデータ) (2021-06-11T06:55:02Z) - Fair Classification with Adversarial Perturbations [35.030329189029246]
本研究は,学習サンプルの任意の$eta$-fractionを選択でき,保護属性を任意に摂動することができるような,万能な逆境の存在下での公平な分類について検討する。
我々の主な貢献は、精度と公正性に関する証明可能な保証を伴うこの逆条件で公平な分類法を学ぶための最適化フレームワークである。
我々は、自然な仮説クラスに対する我々のフレームワークの保証のほぼ正当性を証明している: どのアルゴリズムもはるかに精度が良く、より良い公正性を持つアルゴリズムは、より低い精度でなければならない。
論文 参考訳(メタデータ) (2021-06-10T17:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。