論文の概要: Fairness in Forecasting and Learning Linear Dynamical Systems
- arxiv url: http://arxiv.org/abs/2006.07315v2
- Date: Sat, 2 Jan 2021 12:28:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 04:08:35.912423
- Title: Fairness in Forecasting and Learning Linear Dynamical Systems
- Title(参考訳): 線形力学系の予測と学習における公平性
- Authors: Quan Zhou, Jakub Marecek, Robert N. Shorten
- Abstract要約: 時系列予測問題において、そのような表現不足に対処するために、サブグループフェアネスと即時フェアネスという2つの自然な概念を導入する。
特に,長さの異なる複数の軌跡から線形力学系のサブグループフェアおよびインスタントフェア学習を考える。
- 参考スコア(独自算出の注目度): 10.762748665074794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In machine learning, training data often capture the behaviour of multiple
subgroups of some underlying human population. When the amounts of training
data for the subgroups are not controlled carefully, under-representation bias
arises. We introduce two natural notions of subgroup fairness and instantaneous
fairness to address such under-representation bias in time-series forecasting
problems. In particular, we consider the subgroup-fair and instant-fair
learning of a linear dynamical system (LDS) from multiple trajectories of
varying lengths, and the associated forecasting problems. We provide globally
convergent methods for the learning problems using hierarchies of
convexifications of non-commutative polynomial optimisation problems. Our
empirical results on a biased data set motivated by insurance applications and
the well-known COMPAS data set demonstrate both the beneficial impact of
fairness considerations on statistical performance and encouraging effects of
exploiting sparsity on run time.
- Abstract(参考訳): 機械学習では、トレーニングデータはしばしば、下層の人間集団の複数のサブグループの振る舞いを捉えている。
サブグループのトレーニングデータの量を注意深く制御しない場合には、自己表現バイアスが発生する。
時系列予測問題における非表現バイアスに対処するために,サブグループフェアネスと瞬時フェアネスという2つの自然概念を導入する。
特に,線形力学系(lds)のサブグループフェアおよびインスタントフェア学習を,長さの異なる複数の軌道と関連する予測問題から考える。
非可換多項式最適化問題の凸化階層を用いた学習問題のグローバル収束手法を提案する。
保険申請に動機づけられたバイアスデータセットとよく知られたCompASデータセットに関する実証実験の結果は、公正配慮が統計的パフォーマンスに与える影響と、時空利用の効果の両方を示している。
関連論文リスト
- Time-Series Contrastive Learning against False Negatives and Class
Imbalance [19.049773287966072]
我々は理論分析を行い、それらが基本的な問題、つまりInfoNCEの損失に基づくフレームワークに固有の偽陰性とクラス不均衡を見落としていることを発見した。
インスタンス識別タスクに携わるモデルに対して,SimCLRフレームワークに根ざした直感的な修正を導入する。
半教師付き一貫性分類を行い、マイノリティクラスの代表的能力を高める。
論文 参考訳(メタデータ) (2023-12-19T08:38:03Z) - DIVERSIFY: A General Framework for Time Series Out-of-distribution
Detection and Generalization [58.704753031608625]
時系列は、機械学習研究における最も困難なモダリティの1つである。
時系列上でのOODの検出と一般化は、その非定常性によって悩まされる傾向がある。
時系列の動的分布のOOD検出と一般化のためのフレームワークであるDIVERSIFYを提案する。
論文 参考訳(メタデータ) (2023-08-04T12:27:11Z) - On The Impact of Machine Learning Randomness on Group Fairness [11.747264308336012]
ニューラルネットワークのトレーニングにおけるランダム性の異なる源の群フェアネスへの影響について検討する。
グループフェアネス尺度のばらつきは、非表現群における学習過程の高ボラティリティに根ざしていることを示す。
一つのエポックに対してデータ順序を変更するだけで、モデル全体の性能に高い効率と無視可能な影響でグループレベルの精度を制御できることを示す。
論文 参考訳(メタデータ) (2023-07-09T09:36:31Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Systematic Evaluation of Predictive Fairness [60.0947291284978]
バイアス付きデータセットのトレーニングにおけるバイアスの緩和は、重要なオープンな問題である。
複数のタスクにまたがる様々なデバイアス化手法の性能について検討する。
データ条件が相対モデルの性能に強い影響を与えることがわかった。
論文 参考訳(メタデータ) (2022-10-17T05:40:13Z) - Fairness in Forecasting of Observations of Linear Dynamical Systems [10.762748665074794]
本稿では, 時系列予測問題において, 公平性と即時公正性の2つの自然概念を導入する。
公平性に制約された学習問題の最適化のためのグローバル収束手法を示す。
本手法の有効性を示すために,保険申請によるバイアスデータセットとよく知られたCompASデータセットについて検討した。
論文 参考訳(メタデータ) (2022-09-12T14:32:12Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in
Regression Machine Learning Problems [0.0]
回帰問題における不公平さの影響を最小限に抑えるため, 正規化(FaiReg)に基づく簡易かつ効果的な手法を提案する。
本手法を,データバランシングと対向訓練という,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減し、また、元の問題の性能を低下させることなく、優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z) - A survey of bias in Machine Learning through the prism of Statistical
Parity for the Adult Data Set [5.277804553312449]
偏見を自動決定にどのように導入できるかを理解することの重要性を示す。
まず、公正学習問題、特に二項分類設定における数学的枠組みについて述べる。
そこで,本研究では,現実およびよく知られた成人所得データセットの標準差分効果指標を用いて,偏見の有無を定量化することを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。