論文の概要: Fair Active Learning in Low-Data Regimes
- arxiv url: http://arxiv.org/abs/2312.08559v1
- Date: Wed, 13 Dec 2023 23:14:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-16 00:32:49.051278
- Title: Fair Active Learning in Low-Data Regimes
- Title(参考訳): 低データレジームにおける公正なアクティブラーニング
- Authors: Romain Camilleri, Andrew Wagenmaker, Jamie Morgenstern, Lalit Jain,
Kevin Jamieson
- Abstract要約: 機械学習の応用においては、社会的不平等の持続を避けるために公正性の確保が不可欠である。
本研究では,データスカース環境におけるバイアスの低減と精度向上という課題に対処する。
本稿では,後方サンプリングにインスパイアされた探索手法と,公平な分類サブルーチンを組み合わせた,革新的なアクティブラーニングフレームワークを提案する。
この枠組みは,確率の高い公正制約を満足しつつ,精度を最大化しながら,非常にデータ量の多い状況下で効果的に機能することが実証された。
- 参考スコア(独自算出の注目度): 22.349886628823125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In critical machine learning applications, ensuring fairness is essential to
avoid perpetuating social inequities. In this work, we address the challenges
of reducing bias and improving accuracy in data-scarce environments, where the
cost of collecting labeled data prohibits the use of large, labeled datasets.
In such settings, active learning promises to maximize marginal accuracy gains
of small amounts of labeled data. However, existing applications of active
learning for fairness fail to deliver on this, typically requiring large
labeled datasets, or failing to ensure the desired fairness tolerance is met on
the population distribution.
To address such limitations, we introduce an innovative active learning
framework that combines an exploration procedure inspired by posterior sampling
with a fair classification subroutine. We demonstrate that this framework
performs effectively in very data-scarce regimes, maximizing accuracy while
satisfying fairness constraints with high probability. We evaluate our proposed
approach using well-established real-world benchmark datasets and compare it
against state-of-the-art methods, demonstrating its effectiveness in producing
fair models, and improvement over existing methods.
- Abstract(参考訳): 重要な機械学習アプリケーションでは、社会的不平等の持続を避けるために公正性を確保することが不可欠である。
本研究では,ラベル付きデータの収集コストが大きなラベル付きデータセットの使用を禁止するデータ収集環境において,バイアス低減と精度向上の課題に対処する。
このような環境では、アクティブラーニングは少量のラベル付きデータの限界精度ゲインを最大化する。
しかし、フェアネスのための既存のアクティブラーニングの応用では、通常は大きなラベル付きデータセットを必要とするか、あるいは、人口分布において所望のフェアネス寛容を確実に満たすことができない。
このような制限に対処するために,後方サンプリングに触発された探索手順と公平な分類サブルーチンを組み合わせた,革新的なアクティブラーニングフレームワークを提案する。
このフレームワークは、非常にデータスカルス的な方法で効果的に動作し、公平さの制約を高い確率で満たしながら精度を最大化する。
提案手法を確立された実世界ベンチマークデータセットを用いて評価し,最新手法と比較し,公平なモデル作成における効果と既存手法の改善を実証した。
関連論文リスト
- Achievable Fairness on Your Data With Utility Guarantees [16.78730663293352]
機械学習の公平性において、異なるセンシティブなグループ間の格差を最小限に抑えるトレーニングモデルは、しばしば精度を低下させる。
本稿では,各データセットに適合する公平性-正確性トレードオフ曲線を近似する計算効率のよい手法を提案する。
そこで我々は,モデルフェアネスを監査するための堅牢な枠組みを実践者に提供し,評価の不確実性を定量化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T00:59:32Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Towards Reducing Labeling Cost in Deep Object Detection [61.010693873330446]
本稿では,検知器の不確実性と頑健性の両方を考慮した,アクティブラーニングのための統一的なフレームワークを提案する。
提案手法は, 確率分布のドリフトを抑えながら, 極めて確実な予測を擬似ラベル化することができる。
論文 参考訳(メタデータ) (2021-06-22T16:53:09Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Group Fairness by Probabilistic Modeling with Latent Fair Decisions [36.20281545470954]
本稿では,隠蔽ラベルを表す潜伏変数を明示的にモデル化し,偏りのあるデータから確率分布を学習する。
我々は,学習モデルに一定の依存性を課すことで,人口統計学上の同等性を達成することを目指している。
また、これらの保証を提供するために使用される分布が実際に実世界のデータをキャプチャしている場合にのみ、グループフェアネス保証が有意義であることを示す。
論文 参考訳(メタデータ) (2020-09-18T19:13:23Z) - Fair Active Learning [15.313223110223941]
アクティブラーニングは、ラベル付け予算内でオラクルを対話的にクエリすることで、正確な分類器を構築するための有望なアプローチである。
我々は、モデル精度と公平性のバランスをとるためにラベル付けすべきデータポイントを慎重に選択するフェアアクティブラーニングのためのアルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-06-20T17:00:02Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Fair Active Learning [15.313223110223941]
機械学習モデルが差別を伝播しないことが重要である。
アクティブラーニングは、ラベル付け予算内でオラクルを対話的にクエリすることで、正確な分類器を構築するための有望なアプローチである。
我々は、モデル精度と公平性のバランスをとるためにラベル付けすべきデータポイントを慎重に選択するフェアアクティブラーニングのためのアルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-01-06T22:20:02Z) - Leveraging Semi-Supervised Learning for Fairness using Neural Networks [49.604038072384995]
機械学習に基づく意思決定システムの公平性に対する懸念が高まっている。
本稿では,ラベルのないデータから得られるニューラルネットワークを用いた半教師付きアルゴリズムを提案する。
提案したSSFairと呼ばれるモデルは、ラベルのないデータの情報を活用して、トレーニングデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2019-12-31T09:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。