論文の概要: Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective
- arxiv url: http://arxiv.org/abs/2301.11535v2
- Date: Mon, 23 Oct 2023 12:11:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 13:55:41.069291
- Title: Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective
- Title(参考訳): フェアネスを考慮した多変量時系列予測のための情報表現の学習
- Authors: Hui He, Qi Zhang, Shoujin Wang, Kun Yi, Zhendong Niu, Longbing Cao
- Abstract要約: 多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
- 参考スコア(独自算出の注目度): 50.093280002375984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Performance unfairness among variables widely exists in multivariate time
series (MTS) forecasting models since such models may attend/bias to certain
(advantaged) variables. Addressing this unfairness problem is important for
equally attending to all variables and avoiding vulnerable model biases/risks.
However, fair MTS forecasting is challenging and has been less studied in the
literature. To bridge such significant gap, we formulate the fairness modeling
problem as learning informative representations attending to both advantaged
and disadvantaged variables. Accordingly, we propose a novel framework, named
FairFor, for fairness-aware MTS forecasting. FairFor is based on adversarial
learning to generate both group-independent and group-relevant representations
for the downstream forecasting. The framework first leverages a spectral
relaxation of the K-means objective to infer variable correlations and thus to
group variables. Then, it utilizes a filtering&fusion component to filter the
group-relevant information and generate group-independent representations via
orthogonality regularization. The group-independent and group-relevant
representations form highly informative representations, facilitating to
sharing knowledge from advantaged variables to disadvantaged variables to
guarantee fairness. Extensive experiments on four public datasets demonstrate
the effectiveness of our proposed FairFor for fair forecasting and significant
performance improvement.
- Abstract(参考訳): 多変量時系列(MTS)予測モデルには、変数間の性能の不公平性が広く存在する。
この不公平な問題に対処することは、すべての変数に等しく参加し、脆弱なモデルバイアス/リスクを避けるために重要である。
しかし、公正なmts予測は困難であり、文献ではあまり研究されていない。
このような大きなギャップを埋めるために、有利変数と不利変数の両方に対応する情報表現の学習としてフェアネスモデリング問題を定式化する。
そこで,フェアネスを考慮したMTS予測のためのフレームワークFairForを提案する。
FairForは、下流予測のためのグループ非依存表現とグループ関連表現の両方を生成するための逆学習に基づいている。
このフレームワークはまず、K平均目標のスペクトル緩和を利用して、変数相関を推論し、したがって群変数を推論する。
次に、フィルタリング・フュージョン成分を用いて、群関連情報をフィルタリングし、直交正規化により群非依存表現を生成する。
群独立かつ群関連表現は、有利な変数から不利な変数への知識の共有を容易にし、公正性を保証する。
4つの公開データセットに対する大規模な実験は、フェア予測と大幅な性能改善のために提案したFairForの有効性を示す。
関連論文リスト
- Multi-dimensional Fair Federated Learning [25.07463977553212]
フェデレートラーニング(FL)は、分散データからモデルをトレーニングするための、有望な協調的でセキュアなパラダイムとして登場した。
群フェアネスとクライアントフェアネスは、FLにとって重要である2次元のフェアネスである。
グループフェアネスとクライアントフェアネスを同時に達成するために,mFairFLと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-12-09T11:37:30Z) - Fairness-enhancing mixed effects deep learning improves fairness on in- and out-of-distribution clustered (non-iid) data [6.596656267996196]
フェア・ミックスド・エフェクト・ディープ・ラーニング(Fair MEDL)フレームワークを紹介する。
Fair MEDLは、クラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を定量化する
敵の偏見を取り入れて、平等化オッド、デモグラフィックパリティ、カウンターファクトフェアネスの3つの主要な指標の公平性を促進する。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - On The Impact of Machine Learning Randomness on Group Fairness [11.747264308336012]
ニューラルネットワークのトレーニングにおけるランダム性の異なる源の群フェアネスへの影響について検討する。
グループフェアネス尺度のばらつきは、非表現群における学習過程の高ボラティリティに根ざしていることを示す。
一つのエポックに対してデータ順序を変更するだけで、モデル全体の性能に高い効率と無視可能な影響でグループレベルの精度を制御できることを示す。
論文 参考訳(メタデータ) (2023-07-09T09:36:31Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fairness by Explicability and Adversarial SHAP Learning [0.0]
本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
論文 参考訳(メタデータ) (2020-03-11T14:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。