論文の概要: Falcon: Fair Active Learning using Multi-armed Bandits
- arxiv url: http://arxiv.org/abs/2401.12722v2
- Date: Wed, 24 Jan 2024 04:43:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 11:39:00.480167
- Title: Falcon: Fair Active Learning using Multi-armed Bandits
- Title(参考訳): Falcon: マルチアームバンドによる優れたアクティブラーニング
- Authors: Ki Hyun Tae, Hantian Zhang, Jaeyoung Park, Kexin Rong, Steven Euijong
Whang
- Abstract要約: 本稿では,戦略サンプル選択による機械学習モデルの公平性向上を目的としたデータ中心型手法を提案する。
実験の結果、ファルコンはフェアネスと精度で既存のフェアアクティブな学習手法を著しく上回っていることがわかった。
特に、ファルコンだけが精度と公平性の間の適切なトレードオフをサポートしており、最大のフェアネススコアは2番目に高い結果よりも1.8-4.5倍高い。
- 参考スコア(独自算出の注目度): 9.895979687746376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Biased data can lead to unfair machine learning models, highlighting the
importance of embedding fairness at the beginning of data analysis,
particularly during dataset curation and labeling. In response, we propose
Falcon, a scalable fair active learning framework. Falcon adopts a data-centric
approach that improves machine learning model fairness via strategic sample
selection. Given a user-specified group fairness measure, Falcon identifies
samples from "target groups" (e.g., (attribute=female, label=positive)) that
are the most informative for improving fairness. However, a challenge arises
since these target groups are defined using ground truth labels that are not
available during sample selection. To handle this, we propose a novel
trial-and-error method, where we postpone using a sample if the predicted label
is different from the expected one and falls outside the target group. We also
observe the trade-off that selecting more informative samples results in higher
likelihood of postponing due to undesired label prediction, and the optimal
balance varies per dataset. We capture the trade-off between informativeness
and postpone rate as policies and propose to automatically select the best
policy using adversarial multi-armed bandit methods, given their computational
efficiency and theoretical guarantees. Experiments show that Falcon
significantly outperforms existing fair active learning approaches in terms of
fairness and accuracy and is more efficient. In particular, only Falcon
supports a proper trade-off between accuracy and fairness where its maximum
fairness score is 1.8-4.5x higher than the second-best results.
- Abstract(参考訳): バイアスドデータは不公平な機械学習モデルにつながり、特にデータセットのキュレーションやラベル付けにおいて、データ分析の開始時に公正を埋め込むことの重要性を強調します。
そこで我々は,スケーラブルなフェアアクティブ学習フレームワークであるfalconを提案する。
falconは、戦略的サンプル選択による機械学習モデルの公平性を改善するデータ中心のアプローチを採用している。
ユーザーが特定したグループフェアネス尺度が与えられた場合、ファルコンはフェアネスを改善する上で最も有益な「ターゲットグループ」(例えば、属性=女性、ラベル=陽性)のサンプルを識別する。
しかし、これらの対象群はサンプル選択時に利用できない基底真理ラベルを用いて定義されるため、課題が生じる。
そこで本研究では,予測ラベルと期待ラベルが異なっていた場合にサンプルを用いて延期し,対象群外に落下させる新しい試行錯誤法を提案する。
また,より有益なサンプルを選択するとラベル予測が望ましくないため延期の確率が高くなり,データセット毎に最適なバランスが変化するというトレードオフも観察した。
我々は,情報伝達率とポストポンレートのトレードオフを政策として捉え,その計算効率と理論的保証を考慮し,敵対的多武装バンディット手法による最良の政策を自動選択することを提案する。
実験によると、falconは、公平性と正確性の観点から、既存のfair active learningアプローチを大きく上回っており、より効率的である。
特に、ファルコンだけが正確さと公平さの間の適切なトレードオフを支持しており、その最大フェアネススコアは2番目に良い結果よりも1.8-4.5倍高い。
関連論文リスト
- Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Learning Fair Classifiers with Partially Annotated Group Labels [22.838927494573436]
我々は、アノテーション付きグループラベル(FairPG)を用いたアルゴリズムフェアネスと呼ばれるより実践的なシナリオを考える。
フェアネスを意識した学習戦略に容易に適用可能な,簡易な補助グループ割当て(CGL)を提案する。
本手法は, フェアネス基準の観点から, バニラの擬似ラベル方式よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T15:11:18Z) - Bias-Tolerant Fair Classification [20.973916494320246]
ラベルバイアスと選択バイアスは、機械学習の結果の公平性を妨げるデータにおける2つの理由である。
本稿では,ラベルバイアスと選択バイアスの影響を受けるデータを用いて,利益を回復しようとするBias-TolerantFAirRegularizedLoss (B-FARL)を提案する。
B-FARLはバイアスデータを入力として取り、公正だが潜伏的なデータで訓練されたデータを近似したモデルを呼び出す。
論文 参考訳(メタデータ) (2021-07-07T13:31:38Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。