論文の概要: Fairness-Aware Online Meta-learning
- arxiv url: http://arxiv.org/abs/2108.09435v1
- Date: Sat, 21 Aug 2021 04:36:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 15:38:30.597665
- Title: Fairness-Aware Online Meta-learning
- Title(参考訳): フェアネスを考慮したオンラインメタラーニング
- Authors: Chen Zhao, Feng Chen, Bhavani Thuraisingham
- Abstract要約: 本稿では,不公平防止の設定の下で,新しいオンラインメタ学習アルゴリズムFFMLを提案する。
実世界の3つのデータセットの分類にFFMLを適用することで,FFMLの汎用性を実証した。
- 参考スコア(独自算出の注目度): 9.513605738438047
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In contrast to offline working fashions, two research paradigms are devised
for online learning: (1) Online Meta Learning (OML) learns good priors over
model parameters (or learning to learn) in a sequential setting where tasks are
revealed one after another. Although it provides a sub-linear regret bound,
such techniques completely ignore the importance of learning with fairness
which is a significant hallmark of human intelligence. (2) Online
Fairness-Aware Learning. This setting captures many classification problems for
which fairness is a concern. But it aims to attain zero-shot generalization
without any task-specific adaptation. This therefore limits the capability of a
model to adapt onto newly arrived data. To overcome such issues and bridge the
gap, in this paper for the first time we proposed a novel online meta-learning
algorithm, namely FFML, which is under the setting of unfairness prevention.
The key part of FFML is to learn good priors of an online fair classification
model's primal and dual parameters that are associated with the model's
accuracy and fairness, respectively. The problem is formulated in the form of a
bi-level convex-concave optimization. Theoretic analysis provides sub-linear
upper bounds for loss regret and for violation of cumulative fairness
constraints. Our experiments demonstrate the versatility of FFML by applying it
to classification on three real-world datasets and show substantial
improvements over the best prior work on the tradeoff between fairness and
classification accuracy
- Abstract(参考訳): オンラインメタ学習(oml)は,タスクが次々に現れる逐次的な環境において,モデルパラメータ(あるいは学習の学習)よりも優れた優先順位を学習する。
このようなテクニックは、人間の知性の重要な特徴である公平さで学習することの重要性を完全に無視する。
(2)オンライン・フェアネス・アウェア・ラーニング
この設定は、公平性が懸念される多くの分類問題を捉えている。
しかし、タスク固有の適応なしにゼロショット一般化を達成することを目指している。
これにより、モデルが新たに到着したデータに適応する能力が制限される。
このような問題を克服し,そのギャップを埋めるために,本稿では,不公平防止の設定下にある新しいオンラインメタ学習アルゴリズムであるFFMLを提案する。
ffmlの重要な部分は、モデルの正確性と公平性にそれぞれ関連づけられたオンラインフェア分類モデルのプライマリパラメータとデュアルパラメータの優れた事前学習である。
この問題は二値凸凹最適化の形で定式化されている。
理論解析は、損失後悔と累積公正性制約の違反に対して、サブ線形上界を与える。
実世界の3つのデータセットの分類にFFMLを適用することでFFMLの汎用性を実証し、公平性と分類精度のトレードオフに関する先行研究よりも大幅に改善したことを示す。
関連論文リスト
- Fairness Uncertainty Quantification: How certain are you that the model
is fair? [13.209748908186606]
現代の機械学習において、グラディエント・Descent(SGD)型アルゴリズムは、学習されたモデルがランダムであることを示す訓練アルゴリズムとして、ほぼ常に使用される。
本研究では,グループフェアネスを意識した信頼区間(CI)、特にDI(Disparate Impact)とDM(Disparate Mistreatment)を意識した線形二項分類器をオンラインSGD型アルゴリズムを用いてトレーニングする場合に,不公平性テストのための信頼区間(CI)を提供する。
論文 参考訳(メタデータ) (2023-04-27T04:07:58Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Preventing Discriminatory Decision-making in Evolving Data Streams [8.952662914331901]
機械学習のバイアスは、ここ10年で明らかに注目を集めている。
意思決定システムのバイアスに対処する最も公正な機械学習(fair-ML)は、オフライン設定のみに焦点を当てている。
オンラインシステムが現実世界で広く普及しているにもかかわらず、オンライン設定におけるバイアスを特定し修正する作業は極めて不十分である。
論文 参考訳(メタデータ) (2023-02-16T01:20:08Z) - Prototype-Anchored Learning for Learning with Imperfect Annotations [83.7763875464011]
不完全な注釈付きデータセットからバイアスのない分類モデルを学ぶことは困難である。
本稿では,様々な学習に基づく分類手法に容易に組み込むことができるプロトタイプ・アンコレッド学習法を提案する。
我々は,PALがクラス不均衡学習および耐雑音学習に与える影響を,合成および実世界のデータセットに関する広範な実験により検証した。
論文 参考訳(メタデータ) (2022-06-23T10:25:37Z) - Adaptive Fairness-Aware Online Meta-Learning for Changing Environments [29.073555722548956]
公正を意識したオンライン学習フレームワークは、継続的な生涯学習環境のための強力なツールとして生まれてきた。
既存の手法は、データに対するi.i.dの仮定を多用し、フレームワークに静的な後悔の分析を提供する。
バイアス制御とモデル精度の両方で変化する環境に適応できる適応的公平性を考慮したオンラインメタ学習アルゴリズムであるFairSAOMLを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:29:38Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - A Primal-Dual Subgradient Approachfor Fair Meta Learning [23.65344558042896]
ショットのメタ学習は、その高速適応能力と、未知のタスクへの精度の一般化で有名である。
そこで本研究では,ごく少数の例を用いて,公正な機械学習モデルのトレーニングを学習するPrimal-Dual Meta-learningフレームワーク,すなわちPDFMを提案する。
論文 参考訳(メタデータ) (2020-09-26T19:47:38Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。