論文の概要: FAL-CUR: Fair Active Learning using Uncertainty and Representativeness
on Fair Clustering
- arxiv url: http://arxiv.org/abs/2209.12756v2
- Date: Tue, 19 Dec 2023 16:17:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 03:25:32.357414
- Title: FAL-CUR: Fair Active Learning using Uncertainty and Representativeness
on Fair Clustering
- Title(参考訳): FAL-CUR:不確かさと代表性を用いたフェアクラスタリングによるフェアアクティブラーニング
- Authors: Ricky Fajri, Akrati Saxena, Yulong Pei, Mykola Pechenizkiy
- Abstract要約: フェアクラスタリング,不確実性,代表性(FAL-CUR)を用いたフェアアクティブラーニングという新しい戦略を提案する。
FAL-CURは、均等化オッズの観点から、最先端の手法と比較して、公正度が15%から20%向上する。
A blation study is highlights the important role of fair clustering inserving fairness and the acquisition function in stabilizing the accuracy performance。
- 参考スコア(独自算出の注目度): 16.808400593594435
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Active Learning (AL) techniques have proven to be highly effective in
reducing data labeling costs across a range of machine learning tasks.
Nevertheless, one known challenge of these methods is their potential to
introduce unfairness towards sensitive attributes. Although recent approaches
have focused on enhancing fairness in AL, they tend to reduce the model's
accuracy. To address this issue, we propose a novel strategy, named Fair Active
Learning using fair Clustering, Uncertainty, and Representativeness (FAL-CUR),
to improve fairness in AL. FAL-CUR tackles the fairness problem in AL by
combining fair clustering with an acquisition function that determines which
samples to query based on their uncertainty and representativeness scores. We
evaluate the performance of FAL-CUR on four real-world datasets, and the
results demonstrate that FAL-CUR achieves a 15% - 20% improvement in fairness
compared to the best state-of-the-art method in terms of equalized odds while
maintaining stable accuracy scores. Furthermore, an ablation study highlights
the crucial roles of fair clustering in preserving fairness and the acquisition
function in stabilizing the accuracy performance.
- Abstract(参考訳): アクティブラーニング(AL)技術は、機械学習タスクの範囲でデータラベリングコストを低減するのに非常に効果的であることが証明されている。
しかしながら、これらの手法の1つの既知の課題は、センシティブな属性に対して不公平を導入する可能性である。
最近のアプローチではalの公平性向上に重点が置かれているが、モデルの精度を低下させる傾向がある。
この問題を解決するために,フェアクラスタリング,不確実性,代表性(FAL-CUR)を用いたフェアアクティブラーニング(Fair Active Learning)という新たな戦略を提案し,ALのフェアネスを改善する。
fal-curは、フェアクラスタリングと、その不確実性と代表性スコアに基づいてクエリするサンプルを決定する取得関数を組み合わせることで、alのフェアネス問題に取り組む。
本研究では,4つの実世界のデータセットにおけるfal-curの性能を評価し,fal-curの公平性は,同等のオッズ値を維持しつつ,公平性が15%~20%向上することを示した。
さらに, フェアネス保存におけるフェアクラスタリングの重要な役割と, 精度の安定化における獲得機能を強調した。
関連論文リスト
- Learning Fairer Representations with FairVIC [0.0]
自動意思決定システムにおけるバイアスの緩和は、公平さとデータセット固有のバイアスのニュアンスな定義のために重要な課題である。
学習中の損失関数に分散項、不変項、共分散項を統合することにより、ニューラルネットワークの公平性を高める革新的なアプローチであるFairVICを導入する。
ベンチマークデータセットにおけるFairVICを,グループと個人の両方の公正性を考慮して比較して評価し,精度と公正性のトレードオフに関するアブレーション研究を行う。
論文 参考訳(メタデータ) (2024-04-28T10:10:21Z) - Towards Fairness-Aware Adversarial Learning [13.932705960012846]
フェアネス・アウェア・アドバーサリアル・ラーニング(FAAL)という新しい学習パラダイムを提案する。
提案手法は,異なるカテゴリ間で最悪の分布を求めることを目的としており,高い確率で上界性能が得られることを保証している。
特にFAALは、不公平なロバストモデルを2つのエポックで公平に調整できるが、全体的なクリーンで堅牢なアキュラシーを損なうことはない。
論文 参考訳(メタデータ) (2024-02-27T18:01:59Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fair Robust Active Learning by Joint Inconsistency [22.150782414035422]
本稿では,従来のFALと対角的堅牢性を統合したFAL(Fair Robust Active Learning)を提案する。
関節不整合(JIN)による簡易かつ効果的なFRAL戦略の開発
本手法は, 良性サンプルと逆性サンプルと, 標準モデルとロバストモデルとの整合性の予測を利用する。
論文 参考訳(メタデータ) (2022-09-22T01:56:41Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。