論文の概要: Differential Adjusted Parity for Learning Fair Representations
- arxiv url: http://arxiv.org/abs/2502.09765v1
- Date: Thu, 13 Feb 2025 20:48:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 14:47:22.820836
- Title: Differential Adjusted Parity for Learning Fair Representations
- Title(参考訳): 公正表現学習のための微分調整パリティ
- Authors: Bucher Sahyouni, Matthew Vowels, Liqun Chen, Simon Hadfield,
- Abstract要約: 公正で偏見のない機械学習モデルの開発は、人工知能分野の研究者にとって現在も進行中の目標である。
偏差適応パリティ(DAP)の損失を非偏差情報表現として導入する。
- 参考スコア(独自算出の注目度): 14.267727134658292
- License:
- Abstract: The development of fair and unbiased machine learning models remains an ongoing objective for researchers in the field of artificial intelligence. We introduce the Differential Adjusted Parity (DAP) loss to produce unbiased informative representations. It utilises a differentiable variant of the adjusted parity metric to create a unified objective function. By combining downstream task classification accuracy and its inconsistency across sensitive feature domains, it provides a single tool to increase performance and mitigate bias. A key element in this approach is the use of soft balanced accuracies. In contrast to previous non-adversarial approaches, DAP does not suffer a degeneracy where the metric is satisfied by performing equally poorly across all sensitive domains. It outperforms several adversarial models on downstream task accuracy and fairness in our analysis. Specifically, it improves the demographic parity, equalized odds and sensitive feature accuracy by as much as 22.5\%, 44.1\% and 40.1\%, respectively, when compared to the best performing adversarial approaches on these metrics. Overall, the DAP loss and its associated metric can play a significant role in creating more fair machine learning models.
- Abstract(参考訳): 公正で偏見のない機械学習モデルの開発は、人工知能分野の研究者にとって現在も進行中の目標である。
偏差適応パリティ(DAP)の損失を非偏差情報表現として導入する。
これは、調整されたパリティ計量の微分可能な変種を利用して、統一目的関数を生成する。
ダウンストリームタスク分類の精度と、センシティブな機能ドメイン間の不整合を組み合わせることで、パフォーマンスを高めバイアスを軽減する単一のツールを提供する。
このアプローチの鍵となる要素は、ソフトバランスの取れたアキュラシーの使用である。
従来の非敵対的アプローチとは対照的に、DAPはすべての機密領域で等しく劣悪に作用することでメートル法が満たされる縮退に苦しむことはない。
本手法は,ダウンストリームタスクの精度と公平性において,いくつかの敵モデルより優れる。
具体的には、22.5\%、44.1\%、および40.1\%の精度で、これらの指標の最も優れた対向的アプローチと比較すると、人口統計値、等化確率、敏感な特徴精度を改善する。
全体として、DAPの損失とその関連するメトリクスは、より公正な機械学習モデルを作成する上で重要な役割を果たします。
関連論文リスト
- Fair Federated Learning under Domain Skew with Local Consistency and Domain Diversity [40.84004643341614]
フェデレートラーニング(FL)は、プライバシ保護の協調トレーニングのための新しいパラダイムとして登場した。
ドメインスキューでは、現在のFLアプローチはバイアスがあり、2つのフェアネス問題に直面している。
論文 参考訳(メタデータ) (2024-05-26T14:29:10Z) - Understanding the Detrimental Class-level Effects of Data Augmentation [63.1733767714073]
最適な平均精度を達成するには、ImageNetで最大20%の個々のクラスの精度を著しく損なうコストがかかる。
本稿では,DAがクラスレベルの学習力学とどのように相互作用するかを理解するためのフレームワークを提案する。
そこで本研究では, クラス条件拡張戦略により, 負の影響を受けるクラスの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-07T18:37:43Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Fairly Accurate: Learning Optimal Accuracy vs. Fairness Tradeoffs for
Hate Speech Detection [8.841221697099687]
本稿では,モデルトレーニングにおけるグループフェアネスの直接最適化を可能にする,微分可能な尺度を提案する。
ヘイトスピーチ検出の特定のタスクについて,本手法の評価を行った。
畳み込み、シーケンシャル、トランスフォーマーに基づくニューラルネットワークによる実験結果は、事前の作業よりも経験的精度が優れている。
論文 参考訳(メタデータ) (2022-04-15T22:11:25Z) - FairPrune: Achieving Fairness Through Pruning for Dermatological Disease
Diagnosis [17.508632873527525]
刈り取りによる公平性を実現する方法であるFairPruneを提案する。
本研究では,両グループの平均精度を極力高く保ちながら,公平性を著しく向上できることを示す。
論文 参考訳(メタデータ) (2022-03-04T02:57:34Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - DAPPER: Label-Free Performance Estimation after Personalization for
Heterogeneous Mobile Sensing [95.18236298557721]
DAPPER(Domain AdaPtation Performance EstimatoR)を提案する。
実世界の6つのベースラインと比較した4つのセンシングデータセットによる評価の結果,DAPPERの精度は39.8%向上した。
論文 参考訳(メタデータ) (2021-11-22T08:49:33Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - FAIR: Fair Adversarial Instance Re-weighting [0.7829352305480285]
本研究では,公正な予測を確実にするインスタンス重み付け関数の学習に敵対的トレーニングを利用するFair Adrial Instance Re-weighting(FAIR)手法を提案する。
我々の知る限りでは、これは、個々のインスタンスの公平性に関する解釈可能な情報を提供する重み付け関数によって、再重み付けと逆方向のアプローチをマージする最初のモデルである。
論文 参考訳(メタデータ) (2020-11-15T10:48:56Z) - Adversarial Learning for Counterfactual Fairness [15.302633901803526]
近年、フェアネスは機械学習研究コミュニティにおいて重要なトピックとなっている。
我々は,MDDの罰則よりも強力な推論を可能にする,対向的ニューラルネットワークアプローチに頼ることを提案する。
実験では、離散的および連続的な設定の両方に対して、対実的公正性の観点から、顕著な改善が示された。
論文 参考訳(メタデータ) (2020-08-30T09:06:03Z) - Precise Tradeoffs in Adversarial Training for Linear Regression [55.764306209771405]
本稿では,ガウス的特徴を伴う線形回帰の文脈における対人訓練の役割を,正確かつ包括的に理解する。
我々は,同時代のミニマックス対逆訓練手法によって達成された標準/ロバスト精度とそれに対応するトレードオフを正確に特徴づける。
逆行訓練アルゴリズムの理論は、様々な要因(トレーニングデータのサイズや品質、モデルの過度化など)がこれらの2つの競合するアキュラシー間のトレードオフにどのように影響するかを厳密に研究する上で役立ちます。
論文 参考訳(メタデータ) (2020-02-24T19:01:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。