論文の概要: TARA: Training and Representation Alteration for AI Fairness and Domain
Generalization
- arxiv url: http://arxiv.org/abs/2012.06387v2
- Date: Mon, 8 Mar 2021 14:40:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 03:09:13.693085
- Title: TARA: Training and Representation Alteration for AI Fairness and Domain
Generalization
- Title(参考訳): TARA:AIフェアネスとドメインの一般化のためのトレーニングと表現の定式化
- Authors: William Paul, Armin Hadzic, Neil Joshi, Fady Alajaji, Phil Burlina
- Abstract要約: この方法は、AIバイアスの顕著な原因の軽減のためにトレーニングおよび表現変換(TARA)を実行するデュアル戦略を使用します。
画像解析の手法をテストすると、実験により、TARAがベースラインモデルを著しく、あるいは完全に破壊することを示した。
偏り評価に使用される現在の測定基準の一定の限界を認識し, 新たな整合性偏り測定基準を提案する。
- 参考スコア(独自算出の注目度): 6.6147550436077776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This method uses a dual strategy performing training and representation
alteration (TARA) for the mitigation of prominent causes of AI bias by
including: a) the use of representation learning alteration via adversarial
independence to suppress the bias-inducing dependence of the data
representation from protected factors; and b) training set alteration via
intelligent augmentation to address bias-causing data imbalance, by using
generative models that allow the fine control of sensitive factors related to
underrepresented populations. When testing our methods on image analytics,
experiments demonstrate that TARA significantly or fully debiases baseline
models while outperforming competing debiasing methods, e.g., with (% overall
accuracy, % accuracy gap) = (78.75, 0.5) vs. the baseline method's score of
(71.75, 10.5) for EyePACS, and (73.71, 11.82) vs. (69.08, 21.65) for CelebA.
Furthermore, recognizing certain limitations in current metrics used for
assessing debiasing performance, we propose novel conjunctive debiasing
metrics. Our experiments also demonstrate the ability of these novel metrics in
assessing the Pareto efficiency of the proposed methods.
- Abstract(参考訳): This method uses a dual strategy performing training and representation alteration (TARA) for the mitigation of prominent causes of AI bias by including: a) the use of representation learning alteration via adversarial independence to suppress the bias-inducing dependence of the data representation from protected factors; and b) training set alteration via intelligent augmentation to address bias-causing data imbalance, by using generative models that allow the fine control of sensitive factors related to underrepresented populations.
画像解析の手法をテストする場合、TARAは、(全体の精度、%精度のギャップ) = (78.75, 0.5)対EyePACSのベースライン手法のスコア(71.75, 10.5)、(73.71, 11.82)対(69.08, 21.65)と、競合するデバイアス法よりも優れた性能を保ちながら、ベースラインモデルを著しくあるいは完全に破壊することを示した。
さらに,デバイアス性能の評価に用いる現在の指標に一定の制限があることを認識し,新しい連続的デバイアス指標を提案する。
また,提案手法のパレート効率を評価する上で,これらの新しい指標が有効であることを示す。
関連論文リスト
- Enhancing Training Data Attribution for Large Language Models with Fitting Error Consideration [74.09687562334682]
Debias and Denoise Attribution (DDA) と呼ばれる新しいトレーニングデータ属性法を導入する。
提案手法は既存のアプローチよりも優れており,平均91.64%のAUCを実現している。
DDAは、様々なソースとLLaMA2、QWEN2、Mistralのような異なるスケールのモデルに対して、強力な汎用性とスケーラビリティを示す。
論文 参考訳(メタデータ) (2024-10-02T07:14:26Z) - Utilizing Adversarial Examples for Bias Mitigation and Accuracy Enhancement [3.0820287240219795]
本稿では,コンピュータビジョンモデルにおけるバイアスを軽減するための新しい手法を提案する。
提案手法は,カリキュラム学習フレームワークと詳細な逆数損失を組み合わせることで,逆数例を用いてモデルを微調整する。
我々は,定性評価と定量的評価を併用し,従来の方法と比較してバイアス緩和と精度の向上を実証した。
論文 参考訳(メタデータ) (2024-04-18T00:41:32Z) - Addressing Both Statistical and Causal Gender Fairness in NLP Models [22.75594773147521]
統計的公正性は、保護されたすべてのグループに対して同等の結果を規定するが、因果公正性は、モデルが保護された特性に関係なく、個人に対して同じ予測を行うことを規定する。
統計的および因果的脱バイアス法の組み合わせにより,両指標間の偏差を低減できることを実証した。
論文 参考訳(メタデータ) (2024-03-30T20:05:41Z) - Toward Fair Facial Expression Recognition with Improved Distribution
Alignment [19.442685015494316]
本稿では,表情認識(FER)モデルにおけるバイアスを軽減する新しい手法を提案する。
本手法は、FERモデルによる埋め込みにおいて、性別、年齢、人種などの機密属性情報を低減することを目的としている。
ferモデルにおいて、魅力の概念を重要な感度属性として分析し、FERモデルがより魅力的な顔に対するバイアスを実際に示できることを実証する。
論文 参考訳(メタデータ) (2023-06-11T14:59:20Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Diffusion Denoising Process for Perceptron Bias in Out-of-distribution
Detection [67.49587673594276]
我々は、識別器モデルが入力の特定の特徴に対してより敏感であることを示唆する新しいパーセプトロンバイアスの仮定を導入し、過度な問題を引き起こした。
DMの拡散分解過程 (DDP) が非対称の新たな形態として機能し, 入力を高め, 過信問題を緩和するのに適していることを示す。
CIFAR10, CIFAR100, ImageNetによる実験により, 提案手法がSOTA手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T08:45:08Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Information-Theoretic Bias Assessment Of Learned Representations Of
Pretrained Face Recognition [18.07966649678408]
保護された人口統計属性に対するバイアスの度合いを特定するために,情報理論,独立バイアス評価指標を提案する。
我々の測定基準は、分類精度に依存する他の方法と異なり、浅いネットワークを用いて予測される保護属性の予測ラベルと地上の真実の差を調べる。
論文 参考訳(メタデータ) (2021-11-08T17:41:17Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。