論文の概要: Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective
- arxiv url: http://arxiv.org/abs/2301.11535v1
- Date: Fri, 27 Jan 2023 04:54:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 16:21:38.041919
- Title: Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective
- Title(参考訳): フェアネスを考慮した多変量時系列予測のための情報表現の学習
- Authors: Hui He, Qi Zhang, Shoujin Wang, Kun Yi, Zhendong Niu, Longbing Cao
- Abstract要約: MTSフェアネスモデリング問題を,有利変数と不利変数の両方に対応する情報表現の学習として定式化する。
フェアネスを考慮したMTS予測のためのフレームワークFairForを提案する。
4つの公開データセットに関する大規模な実験は、公正な予測と大幅なパフォーマンス改善のためのFairForの有効性を示している。
- 参考スコア(独自算出の注目度): 49.87526617619161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multivariate time series (MTS) forecasting has penetrated and benefited our
daily life. However, the unfair forecasting of MTSs not only degrades their
practical benefit but even brings about serious potential risk. Such unfair MTS
forecasting may be attributed to variable disparity leading to advantaged and
disadvantaged variables. This issue has rarely been studied in the existing MTS
forecasting models. To address this significant gap, we formulate the MTS
fairness modeling problem as learning informative representations attending to
both advantaged and disadvantaged variables. Accordingly, we propose a novel
framework, named FairFor, for fairness-aware MTS forecasting. FairFor is based
on adversarial learning to generate both group-irrelevant and -relevant
representations for the downstream forecasting. FairFor first adopts the
recurrent graph convolution to capture spatio-temporal variable correlations
and to group variables by leveraging a spectral relaxation of the K-means
objective. Then, it utilizes a novel filtering & fusion module to filter the
group-relevant information and generate group-irrelevant representations by
orthogonality regularization. The group-irrelevant and -relevant
representations form highly informative representations, facilitating to share
the knowledge from advantaged variables to disadvantaged variables and
guarantee fairness. Extensive experiments on four public datasets demonstrate
the FairFor effectiveness for fair forecasting and significant performance
improvement.
- Abstract(参考訳): 多変量時系列(MTS)予測は我々の日常生活に浸透し利益をもたらした。
しかし、MTSの不公平な予測は、その実用的利益を損なうだけでなく、深刻なリスクをもたらす。
このような不公平なMSS予測は、利点と不利益をもたらす変数の相違に起因する可能性がある。
この問題は既存のMSS予測モデルではほとんど研究されていない。
この大きなギャップに対処するため、MTSフェアネスモデリング問題を、有利変数と不利変数の両方に対応する学習情報表現として定式化する。
そこで,フェアネスを考慮したMTS予測のためのフレームワークFairForを提案する。
FairForは、下流予測のためのグループ非関連表現と関連表現の両方を生成するための逆学習に基づいている。
fairfor はまず再帰グラフ畳み込みを採用し、k-means の目的のスペクトル緩和を利用して時空間変数相関を捉える。
そして、新しいフィルタリング・融合モジュールを用いて、グループ関連情報をフィルタリングし、直交正規化によりグループ関連表現を生成する。
グループ非関連で関連性の高い表現は、有利な変数から不利な変数への知識の共有を促進し、公平性を保証する。
4つのパブリックデータセットに関する広範囲な実験は、公正な予測と大幅なパフォーマンス向上にフェアフォの有効性を示している。
関連論文リスト
- Multi-dimensional Fair Federated Learning [25.07463977553212]
フェデレートラーニング(FL)は、分散データからモデルをトレーニングするための、有望な協調的でセキュアなパラダイムとして登場した。
群フェアネスとクライアントフェアネスは、FLにとって重要である2次元のフェアネスである。
グループフェアネスとクライアントフェアネスを同時に達成するために,mFairFLと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-12-09T11:37:30Z) - Fairness-enhancing mixed effects deep learning improves fairness on in- and out-of-distribution clustered (non-iid) data [6.596656267996196]
フェア・ミックスド・エフェクト・ディープ・ラーニング(Fair MEDL)フレームワークを提案する。
本フレームワークは,1)不変なFEを学習するためのクラスタ逆効果,2)REのためのベイズニューラルネットワーク,3)最終的な予測のためにFEとREを組み合わせた混合関数,を通じて,クラスタ不変な固定効果(FE)とクラスタ固有ランダムエフェクト(RE)を定量化する。
公正なMEDLフレームワークは、年齢で86.4%、人種で64.9%、性で57.8%、結婚で36.2%の公正性を向上し、堅牢な予測性能を維持している。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - On The Impact of Machine Learning Randomness on Group Fairness [11.747264308336012]
ニューラルネットワークのトレーニングにおけるランダム性の異なる源の群フェアネスへの影響について検討する。
グループフェアネス尺度のばらつきは、非表現群における学習過程の高ボラティリティに根ざしていることを示す。
一つのエポックに対してデータ順序を変更するだけで、モデル全体の性能に高い効率と無視可能な影響でグループレベルの精度を制御できることを示す。
論文 参考訳(メタデータ) (2023-07-09T09:36:31Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fairness by Explicability and Adversarial SHAP Learning [0.0]
本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
論文 参考訳(メタデータ) (2020-03-11T14:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。