論文の概要: FAL-CUR: Fair Active Learning using Uncertainty and Representativeness
on Fair Clustering
- arxiv url: http://arxiv.org/abs/2209.12756v1
- Date: Wed, 21 Sep 2022 08:28:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 23:15:13.145577
- Title: FAL-CUR: Fair Active Learning using Uncertainty and Representativeness
on Fair Clustering
- Title(参考訳): FAL-CUR:不確かさと代表性を用いたフェアクラスタリングによるフェアアクティブラーニング
- Authors: Ricky Fajri, Akrati Saxena, Yulong Pei, Mykola Pechenizkiy
- Abstract要約: 本稿では、フェアクラスタリング、不確実性、代表性(FAL-CUR)を用いたフェアアクティブラーニングと呼ばれる新しいアクティブラーニング戦略を提案する。
FAL-CURアルゴリズムは、高い公正度対策を達成しつつ、性能の精度を維持し、よく知られた公正なアクティブな学習問題に対して最先端の手法より優れている。
- 参考スコア(独自算出の注目度): 10.745544780660165
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the literature, several active learning techniques have been proposed for
reducing the cost of data annotation. However, it is questionable whether the
sample selection is fair with respect to sensitive attributes. Even when the
active learning model considers fairness, it comes with a cost of reduced
accuracy performance. Thus, it remains an open challenge to design an active
learning algorithm that can maintain performance as well as fairness to
underprivileged groups. This paper presents a novel active learning strategy
called Fair Active Learning using fair Clustering, Uncertainty, and
Representativeness (FAL-CUR) that provides a high accuracy while maintaining
fairness during the sample acquisition phase. We introduce the FAL-CUR sample
acquisition function that computes each sample's representative score based on
the uncertainty and similarity score for sample selection. This acquisition
function is added on top of the fair clustering method to add fairness
constraints to the active learning method. We perform extensive experiments on
four real-world datasets to compare the performance of the proposed methods.
The experimental results show that the FAL-CUR algorithm maintains the
performance accuracy while achieving high fairness measures and outperforms
state-of-the-art methods on well-known fair active learning problems.
- Abstract(参考訳): 文献では、データアノテーションのコストを削減するために、いくつかのアクティブな学習技術が提案されている。
しかし, 試料選択が感度特性に対して公平であるか否かは疑わしい。
アクティブな学習モデルが公平性を考慮したとしても、精度が低下するコストが伴う。
したがって、不足しているグループに対する公平さだけでなく、パフォーマンスを維持できるアクティブな学習アルゴリズムを設計することは、依然としてオープンな課題である。
本稿では,fal-cur(fal-cur)を用いて,サンプル取得段階で公正性を維持しながら高精度に学習を行う,fal-cur(fal-cur)と呼ばれる新しいアクティブラーニング戦略を提案する。
サンプル選択のための不確実性および類似性スコアに基づいて各サンプルの代表スコアを算出するFAL-CURサンプル取得関数を提案する。
この獲得関数は、フェアクラスタリング法の上に付加され、アクティブラーニング法にフェアネス制約を加える。
提案手法の性能を比較するために,4つの実世界のデータセットについて広範な実験を行った。
実験の結果,fal-curアルゴリズムは,高い公平度を保ちながら精度を維持し,知名度の高いアクティブラーニング問題に対する最先端手法よりも優れていた。
関連論文リスト
- Towards Fairness-Aware Adversarial Learning [13.932705960012846]
フェアネス・アウェア・アドバーサリアル・ラーニング(FAAL)という新しい学習パラダイムを提案する。
提案手法は,異なるカテゴリ間で最悪の分布を求めることを目的としており,高い確率で上界性能が得られることを保証している。
特にFAALは、不公平なロバストモデルを2つのエポックで公平に調整できるが、全体的なクリーンで堅牢なアキュラシーを損なうことはない。
論文 参考訳(メタデータ) (2024-02-27T18:01:59Z) - Fair Active Learning in Low-Data Regimes [22.349886628823125]
機械学習の応用においては、社会的不平等の持続を避けるために公正性の確保が不可欠である。
本研究では,データスカース環境におけるバイアスの低減と精度向上という課題に対処する。
本稿では,後方サンプリングにインスパイアされた探索手法と,公平な分類サブルーチンを組み合わせた,革新的なアクティブラーニングフレームワークを提案する。
この枠組みは,確率の高い公正制約を満足しつつ,精度を最大化しながら,非常にデータ量の多い状況下で効果的に機能することが実証された。
論文 参考訳(メタデータ) (2023-12-13T23:14:55Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fair Robust Active Learning by Joint Inconsistency [22.150782414035422]
本稿では,従来のFALと対角的堅牢性を統合したFAL(Fair Robust Active Learning)を提案する。
関節不整合(JIN)による簡易かつ効果的なFRAL戦略の開発
本手法は, 良性サンプルと逆性サンプルと, 標準モデルとロバストモデルとの整合性の予測を利用する。
論文 参考訳(メタデータ) (2022-09-22T01:56:41Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。