論文の概要: Dynamic Environment Responsive Online Meta-Learning with Fairness
Awareness
- arxiv url: http://arxiv.org/abs/2402.12319v1
- Date: Mon, 19 Feb 2024 17:44:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 15:08:01.441698
- Title: Dynamic Environment Responsive Online Meta-Learning with Fairness
Awareness
- Title(参考訳): 公正意識を考慮した動的環境応答型オンラインメタラーニング
- Authors: Chen Zhao, Feng Mi, Xintao Wu, Kai Jiang, Latifur Khan, Feng Chen
- Abstract要約: 本稿では,FairSAOMLと呼ばれる,適応フェアネスを考慮したオンラインメタ学習アルゴリズムを提案する。
動的環境下での様々な実世界のデータセットに対する実験評価により,提案アルゴリズムが一貫した代替手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 30.44174123736964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The fairness-aware online learning framework has emerged as a potent tool
within the context of continuous lifelong learning. In this scenario, the
learner's objective is to progressively acquire new tasks as they arrive over
time, while also guaranteeing statistical parity among various protected
sub-populations, such as race and gender, when it comes to the newly introduced
tasks. A significant limitation of current approaches lies in their heavy
reliance on the i.i.d (independent and identically distributed) assumption
concerning data, leading to a static regret analysis of the framework.
Nevertheless, it's crucial to note that achieving low static regret does not
necessarily translate to strong performance in dynamic environments
characterized by tasks sampled from diverse distributions. In this paper, to
tackle the fairness-aware online learning challenge in evolving settings, we
introduce a unique regret measure, FairSAR, by incorporating long-term fairness
constraints into a strongly adapted loss regret framework. Moreover, to
determine an optimal model parameter at each time step, we introduce an
innovative adaptive fairness-aware online meta-learning algorithm, referred to
as FairSAOML. This algorithm possesses the ability to adjust to dynamic
environments by effectively managing bias control and model accuracy. The
problem is framed as a bi-level convex-concave optimization, considering both
the model's primal and dual parameters, which pertain to its accuracy and
fairness attributes, respectively. Theoretical analysis yields sub-linear upper
bounds for both loss regret and the cumulative violation of fairness
constraints. Our experimental evaluation on various real-world datasets in
dynamic environments demonstrates that our proposed FairSAOML algorithm
consistently outperforms alternative approaches rooted in the most advanced
prior online learning methods.
- Abstract(参考訳): fairness-aware online learning frameworkは、継続的生涯学習のコンテキストにおいて強力なツールとして登場した。
このシナリオでは、学習者は時間とともに新しいタスクを段階的に獲得し、新たに導入されたタスクに関しては、人種や性別など、様々な保護されたサブグループ間で統計的に同等であることを保証する。
現在のアプローチの大きな制限は、データに関するi.i.d(独立かつ同一分散)の仮定に強く依存しているため、フレームワークの静的な後悔分析に繋がる。
それでも、低い静的後悔を達成することは、多種多様な分布からサンプリングされたタスクによって特徴づけられる動的環境において、強いパフォーマンスをもたらすとは限らないことに注意する必要がある。
本稿では、設定の進化における公正を意識したオンライン学習の課題に取り組むために、長期的公正性の制約を強固に適応した損失後悔フレームワークに組み込むことにより、ユニークな後悔対策であるFairSARを導入する。
さらに,各段階の最適モデルパラメータを決定するために,FairSAOMLと呼ばれる,適応的フェアネスを考慮したオンラインメタ学習アルゴリズムを導入する。
このアルゴリズムは、バイアス制御とモデル精度を効果的に管理することにより、動的環境に適応する能力を有する。
この問題は、モデルの原始パラメータと双対パラメータの両方を考慮し、それぞれ精度と公平性特性に関する二段階凸凸最適化(bi-level convex-concave optimization)として構成される。
理論的解析により、損失後悔と公正性制約の累積的違反の両方に対して線形上界が得られる。
動的環境における様々な実世界のデータセットの実験的評価により,提案手法が最も先進的なオンライン学習手法に根ざした代替手法を一貫して上回ることを示した。
関連論文リスト
- Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - On Task Performance and Model Calibration with Supervised and
Self-Ensembled In-Context Learning [71.44986275228747]
In-context Learning (ICL) は、近年の大規模言語モデル(LLM)の進歩により、効率的なアプローチとなっている。
しかし、両方のパラダイムは、過信の批判的な問題(すなわち、誤校正)に苦しむ傾向にある。
論文 参考訳(メタデータ) (2023-12-21T11:55:10Z) - Resilient Constrained Learning [94.27081585149836]
本稿では,学習課題を同時に解決しながら,要求に適応する制約付き学習手法を提案する。
我々はこの手法を、その操作を変更することで破壊に適応する生態システムを記述する用語に因んで、レジリエントな制約付き学習と呼ぶ。
論文 参考訳(メタデータ) (2023-06-04T18:14:18Z) - Towards Fair Disentangled Online Learning for Changing Environments [28.207499975916324]
オンライン学習における環境変化は、学習パラメータが環境に固有の部分的変化に起因していると論じる。
本稿では,各時点に収集したデータを2つの表現で切り離すことができるという仮定の下で,新しいアルゴリズムを提案する。
新たな後悔は、動的および静的な後悔の指標の混合形式と、公平性に配慮した長期的制約を伴って提案される。
論文 参考訳(メタデータ) (2023-05-31T19:04:16Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Adaptive Fairness-Aware Online Meta-Learning for Changing Environments [29.073555722548956]
公正を意識したオンライン学習フレームワークは、継続的な生涯学習環境のための強力なツールとして生まれてきた。
既存の手法は、データに対するi.i.dの仮定を多用し、フレームワークに静的な後悔の分析を提供する。
バイアス制御とモデル精度の両方で変化する環境に適応できる適応的公平性を考慮したオンラインメタ学習アルゴリズムであるFairSAOMLを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:29:38Z) - Pessimistic Q-Learning for Offline Reinforcement Learning: Towards
Optimal Sample Complexity [51.476337785345436]
有限水平マルコフ決定過程の文脈におけるQ-ラーニングの悲観的変種について検討する。
ほぼ最適サンプル複雑性を実現するために,分散再現型悲観的Q-ラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-28T15:39:36Z) - Dynamic Regret Analysis for Online Meta-Learning [0.0]
オンラインメタ学習フレームワークは、継続的な生涯学習設定のための強力なツールとして生まれてきた。
この定式化には、メタラーナーを学ぶ外部レベルと、タスク固有のモデルを学ぶ内部レベルという2つのレベルが含まれる。
グローバルな予測から環境の変化を扱う動的な後悔という観点から、パフォーマンスを確立します。
本稿では,本分析を1つの設定で実施し,各イテレーションの総数に依存する局所的局所的後悔の対数論的証明を期待する。
論文 参考訳(メタデータ) (2021-09-29T12:12:59Z) - Fair Meta-Learning For Few-Shot Classification [7.672769260569742]
バイアスデータに基づいてトレーニングされた機械学習アルゴリズムは、不公平な予測を行う傾向がある。
本稿では,メタトレイン中のバイアスを効果的に軽減する,高速適応型数ショットメタラーニング手法を提案する。
提案手法は,モデル出力のバイアスを効果的に軽減し,不明瞭なタスクに対して精度と公平性の両方を一般化することを実証的に実証する。
論文 参考訳(メタデータ) (2020-09-23T22:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。