論文の概要: Adaptive Fairness-Aware Online Meta-Learning for Changing Environments
- arxiv url: http://arxiv.org/abs/2205.11264v1
- Date: Fri, 20 May 2022 15:29:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 16:05:04.934105
- Title: Adaptive Fairness-Aware Online Meta-Learning for Changing Environments
- Title(参考訳): 環境変化のための適応的フェアネスアウェアオンラインメタラーニング
- Authors: Chen Zhao, Feng Mi, Xintao Wu, Kai Jiang, Latifur Khan, Feng Chen
- Abstract要約: 公正を意識したオンライン学習フレームワークは、継続的な生涯学習環境のための強力なツールとして生まれてきた。
既存の手法は、データに対するi.i.dの仮定を多用し、フレームワークに静的な後悔の分析を提供する。
バイアス制御とモデル精度の両方で変化する環境に適応できる適応的公平性を考慮したオンラインメタ学習アルゴリズムであるFairSAOMLを提案する。
- 参考スコア(独自算出の注目度): 29.073555722548956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The fairness-aware online learning framework has arisen as a powerful tool
for the continual lifelong learning setting. The goal for the learner is to
sequentially learn new tasks where they come one after another over time and
the learner ensures the statistic parity of the new coming task across
different protected sub-populations (e.g. race and gender). A major drawback of
existing methods is that they make heavy use of the i.i.d assumption for data
and hence provide static regret analysis for the framework. However, low static
regret cannot imply a good performance in changing environments where tasks are
sampled from heterogeneous distributions. To address the fairness-aware online
learning problem in changing environments, in this paper, we first construct a
novel regret metric FairSAR by adding long-term fairness constraints onto a
strongly adapted loss regret. Furthermore, to determine a good model parameter
at each round, we propose a novel adaptive fairness-aware online meta-learning
algorithm, namely FairSAOML, which is able to adapt to changing environments in
both bias control and model precision. The problem is formulated in the form of
a bi-level convex-concave optimization with respect to the model's primal and
dual parameters that are associated with the model's accuracy and fairness,
respectively. The theoretic analysis provides sub-linear upper bounds for both
loss regret and violation of cumulative fairness constraints. Our experimental
evaluation on different real-world datasets with settings of changing
environments suggests that the proposed FairSAOML significantly outperforms
alternatives based on the best prior online learning approaches.
- Abstract(参考訳): フェアネスを意識したオンライン学習フレームワークは、継続的な生涯学習設定のための強力なツールとして生まれました。
学習者の目標は、時間とともに次々に来る新しいタスクを順次学習することであり、学習者は、異なる保護されたサブ人口(人種や性別など)にまたがる新しいタスクの統計的なパリティを保証する。
既存の方法の大きな欠点は、データに対するi.i.d仮定を多用することで、フレームワークに静的な後悔の分析を提供することだ。
しかし、低い静的後悔は、異種分布からタスクをサンプリングする環境の変化において、良いパフォーマンスを示すものではない。
本稿では,環境変化における公平性を考慮したオンライン学習の問題に対処するため,まず,長期的公正性制約を強く適応された損失後悔に付加することにより,新たな後悔度尺度であるFairSARを構築した。
さらに,各ラウンドの良質なモデルパラメータを決定するために,バイアス制御とモデル精度の両方で変化する環境に適応可能な,適応的フェアネスアウェアオンラインメタラーニングアルゴリズム,fairsaomlを提案する。
この問題は、モデルの精度と公平性に関連付けられたモデルの基本パラメータと双対パラメータに関して、二レベル凸凹最適化の形で定式化される。
この理論解析は、損失後悔と累積公正性制約の違反の両方に線形上界を与える。
変化する環境の設定による異なる実世界のデータセットの実験的評価から,提案するfairsaomlは,オンライン学習の最良のアプローチに基づく代替案を有意に上回っていることが示唆された。
関連論文リスト
- Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Efficient Imitation Learning with Conservative World Models [54.52140201148341]
報酬機能のない専門家によるデモンストレーションから政策学習の課題に取り組む。
純粋な強化学習ではなく、微調整問題として模倣学習を再構成する。
論文 参考訳(メタデータ) (2024-05-21T20:53:18Z) - Dynamic Environment Responsive Online Meta-Learning with Fairness
Awareness [30.44174123736964]
本稿では,FairSAOMLと呼ばれる,適応フェアネスを考慮したオンラインメタ学習アルゴリズムを提案する。
動的環境下での様々な実世界のデータセットに対する実験評価により,提案アルゴリズムが一貫した代替手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-19T17:44:35Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Bilevel Fast Scene Adaptation for Low-Light Image Enhancement [50.639332885989255]
低照度シーンにおける画像の強調は、コンピュータビジョンにおいて難しいが、広く懸念されている課題である。
主な障害は、異なるシーンにまたがる分散の相違によるモデリングの混乱にある。
上述の潜在対応をモデル化するための双レベルパラダイムを導入する。
エンコーダのシーン非関連な一般化を多様なシーンにもたらすために、双方向学習フレームワークを構築した。
論文 参考訳(メタデータ) (2023-06-02T08:16:21Z) - Towards Fair Disentangled Online Learning for Changing Environments [28.207499975916324]
オンライン学習における環境変化は、学習パラメータが環境に固有の部分的変化に起因していると論じる。
本稿では,各時点に収集したデータを2つの表現で切り離すことができるという仮定の下で,新しいアルゴリズムを提案する。
新たな後悔は、動的および静的な後悔の指標の混合形式と、公平性に配慮した長期的制約を伴って提案される。
論文 参考訳(メタデータ) (2023-05-31T19:04:16Z) - Dynamic Regret Analysis for Online Meta-Learning [0.0]
オンラインメタ学習フレームワークは、継続的な生涯学習設定のための強力なツールとして生まれてきた。
この定式化には、メタラーナーを学ぶ外部レベルと、タスク固有のモデルを学ぶ内部レベルという2つのレベルが含まれる。
グローバルな予測から環境の変化を扱う動的な後悔という観点から、パフォーマンスを確立します。
本稿では,本分析を1つの設定で実施し,各イテレーションの総数に依存する局所的局所的後悔の対数論的証明を期待する。
論文 参考訳(メタデータ) (2021-09-29T12:12:59Z) - Fairness-Aware Online Meta-learning [9.513605738438047]
本稿では,不公平防止の設定の下で,新しいオンラインメタ学習アルゴリズムFFMLを提案する。
実世界の3つのデータセットの分類にFFMLを適用することで,FFMLの汎用性を実証した。
論文 参考訳(メタデータ) (2021-08-21T04:36:40Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。