論文の概要: Fair Few-shot Learning with Auxiliary Sets
- arxiv url: http://arxiv.org/abs/2308.14338v1
- Date: Mon, 28 Aug 2023 06:31:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 15:22:57.758305
- Title: Fair Few-shot Learning with Auxiliary Sets
- Title(参考訳): 補助集合を用いたフェアショット学習
- Authors: Song Wang, Jing Ma, Lu Cheng, Jundong Li
- Abstract要約: 多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
- 参考スコア(独自算出の注目度): 53.30014767684218
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, there has been a growing interest in developing machine learning
(ML) models that can promote fairness, i.e., eliminating biased predictions
towards certain populations (e.g., individuals from a specific demographic
group). Most existing works learn such models based on well-designed fairness
constraints in optimization. Nevertheless, in many practical ML tasks, only
very few labeled data samples can be collected, which can lead to inferior
fairness performance. This is because existing fairness constraints are
designed to restrict the prediction disparity among different sensitive groups,
but with few samples, it becomes difficult to accurately measure the disparity,
thus rendering ineffective fairness optimization. In this paper, we define the
fairness-aware learning task with limited training samples as the \emph{fair
few-shot learning} problem. To deal with this problem, we devise a novel
framework that accumulates fairness-aware knowledge across different
meta-training tasks and then generalizes the learned knowledge to meta-test
tasks. To compensate for insufficient training samples, we propose an essential
strategy to select and leverage an auxiliary set for each meta-test task. These
auxiliary sets contain several labeled training samples that can enhance the
model performance regarding fairness in meta-test tasks, thereby allowing for
the transfer of learned useful fairness-oriented knowledge to meta-test tasks.
Furthermore, we conduct extensive experiments on three real-world datasets to
validate the superiority of our framework against the state-of-the-art
baselines.
- Abstract(参考訳): 最近は、公平性を促進する機械学習(ml)モデルの開発、すなわち特定の人口(例えば特定の人口集団の個人)に対する偏りのある予測を排除することへの関心が高まっている。
既存の作品の多くは、最適化において適切に設計された公平性制約に基づいてそのようなモデルを学習する。
しかしながら、多くの実践的なMLタスクでは、ラベル付きデータサンプルを収集できるのはごくわずかであり、フェアネス性能が劣る可能性がある。
これは、既存のフェアネス制約が、異なる感度群間の予測格差を制限するように設計されているためであるが、サンプルが少ないため、その差を正確に測定することが難しくなり、非効率なフェアネス最適化が生じる。
本稿では,訓練サンプルを限定したフェアネス対応学習課題を,emph{fair few-shot learning}問題として定義する。
この問題に対処するために、我々は、異なるメタトレーニングタスクにまたがる公平さを意識した知識を蓄積し、学習した知識をメタテストタスクに一般化する、新しいフレームワークを考案する。
不十分なトレーニングサンプルを補うため,メタテストタスク毎に補助セットを選択し,活用するための重要な戦略を提案する。
これらの補助セットにはいくつかのラベル付きトレーニングサンプルが含まれており、それによってメタテストタスクのフェアネスに関するモデルパフォーマンスが向上し、学習された有用なフェアネス指向の知識をメタテストタスクに移すことができる。
さらに,3つの実世界のデータセットを用いて,最先端のベースラインに対するフレームワークの優位性を検証した。
関連論文リスト
- Fair Class-Incremental Learning using Sample Weighting [27.82760149957115]
本研究は,現在行われている課題のすべてのサンプルを鼻で使用することにより,クラスを含む特定のセンシティブなグループに対して不当な破滅的忘れを生じさせることを示す。
平均勾配ベクトルの方向を変えるために,現在のタスクサンプルのトレーニング重みを調整する,公平なクラス増分学習フレームワークを提案する。
実験により、FSWは実際のデータセットに対する最先端のアプローチよりも精度・公正なトレードオフ結果が得られることが示された。
論文 参考訳(メタデータ) (2024-10-02T08:32:21Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Mitigating Unfairness via Evolutionary Multi-objective Ensemble Learning [0.8563354084119061]
1つまたは複数の公正度対策を最適化することは、他の措置を犠牲にしたり、悪化させることがある。
複数のメトリクスを同時に最適化するために、多目的進化学習フレームワークが使用される。
提案アルゴリズムは,意思決定者に対して,精度とマルチフェアネス指標のトレードオフを向上する。
論文 参考訳(メタデータ) (2022-10-30T06:34:10Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - Ethical Adversaries: Towards Mitigating Unfairness with Adversarial
Machine Learning [8.436127109155008]
個人や組織は、モデルデザイナやデプロイ担当者が責任を持つように、不公平な結果に気付き、テストし、批判します。
トレーニングデータセットから生じる不公平な表現を緩和する上で,これらのグループを支援するフレームワークを提供する。
我々のフレームワークは公平性を改善するために2つの相互運用敵に依存している。
論文 参考訳(メタデータ) (2020-05-14T10:10:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。