論文の概要: Online Fairness-Aware Learning with Imbalanced Data Streams
- arxiv url: http://arxiv.org/abs/2108.06231v1
- Date: Fri, 13 Aug 2021 13:31:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-16 16:25:06.216280
- Title: Online Fairness-Aware Learning with Imbalanced Data Streams
- Title(参考訳): 不均衡データストリームを用いたオンラインフェアネスアウェア学習
- Authors: Vasileios Iosifidis, Wenbin Zhang, Eirini Ntoutsi
- Abstract要約: ストリーム上で有効かつ公平な分類を行うオンラインフェアネスアウェアアプローチとして,我々の提案する手法を提案する。
ウエーシスは オンライン・ブーピング・アプローチだ トレーニング・ディストリビューションを オンライン・スタイルで変更する ストリームのクラス不均衡を監視して
8つの実世界と1つの合成データセットの実験は、最先端の公正なストリームアプローチよりも、我々の手法が優れていることを示す。
- 参考スコア(独自算出の注目度): 9.481178205985396
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data-driven learning algorithms are employed in many online applications, in
which data become available over time, like network monitoring, stock price
prediction, job applications, etc. The underlying data distribution might
evolve over time calling for model adaptation as new instances arrive and old
instances become obsolete. In such dynamic environments, the so-called data
streams, fairness-aware learning cannot be considered as a one-off requirement,
but rather it should comprise a continual requirement over the stream. Recent
fairness-aware stream classifiers ignore the problem of class imbalance, which
manifests in many real-life applications, and mitigate discrimination mainly
because they "reject" minority instances at large due to their inability to
effectively learn all classes.
In this work, we propose \ours, an online fairness-aware approach that
maintains a valid and fair classifier over the stream. \ours~is an online
boosting approach that changes the training distribution in an online fashion
by monitoring stream's class imbalance and tweaks its decision boundary to
mitigate discriminatory outcomes over the stream. Experiments on 8 real-world
and 1 synthetic datasets from different domains with varying class imbalance
demonstrate the superiority of our method over state-of-the-art fairness-aware
stream approaches with a range (relative) increase [11.2\%-14.2\%] in balanced
accuracy, [22.6\%-31.8\%] in gmean, [42.5\%-49.6\%] in recall, [14.3\%-25.7\%]
in kappa and [89.4\%-96.6\%] in statistical parity (fairness).
- Abstract(参考訳): データ駆動学習アルゴリズムは、ネットワーク監視、株価予測、ジョブアプリケーションなど、時間とともにデータが利用可能になる多くのオンラインアプリケーションで採用されている。
基礎となるデータ分散は、新しいインスタンスが到着し、古いインスタンスが時代遅れになると、モデル適応を呼び出す時間とともに進化するかもしれない。
このような動的な環境では、データストリームと呼ばれる公正な学習は、一方的な要件とはみなされず、ストリーム上の連続的な要件を構成するべきである。
最近のフェアネス対応ストリーム分類器は、多くの実生活アプリケーションに現れるクラス不均衡の問題を無視し、主に全てのクラスを効果的に学習できないために、少数インスタンスを「排除」するため、差別を緩和している。
本稿では,ストリーム上で有効かつ公正な分類を行うオンラインフェアネス対応手法である \ours を提案する。
ストリームのクラス不均衡を監視し、その決定境界を微調整することで、ストリーム上での差別的な結果を軽減する。
クラス不均衡の異なる領域の8つの実世界と1つの合成データセットによる実験は、平均的精度が[11.2\%-14.2\%]、[22.6\%-31.8\%]、[42.5\%-49.6\%]、[14.3\%-25.7\%]、[89.4\%-96.6\%]の統計パリティ(フェアネス)に対する我々の手法の優位性を示した。
関連論文リスト
- Gradient Reweighting: Towards Imbalanced Class-Incremental Learning [8.438092346233054]
CIL(Class-Incremental Learning)は、非定常データから新しいクラスを継続的に認識するためにモデルを訓練する。
CILの大きな課題は、非一様分布を特徴とする実世界のデータに適用する場合である。
この二重不均衡問題により、FC層に偏りのある勾配更新が生じ、CILの過度/過度な適合と破滅的な忘れが引き起こされる。
論文 参考訳(メタデータ) (2024-02-28T18:08:03Z) - Exploring Vacant Classes in Label-Skewed Federated Learning [113.65301899666645]
クライアント間の局所的なラベル分布の相違を特徴とするラベルスキューは、連合学習において大きな課題となる。
本稿では, ラベルスキュード・フェデレート学習における新しい手法であるFedVLSについて紹介する。
論文 参考訳(メタデータ) (2024-01-04T16:06:31Z) - Preventing Discriminatory Decision-making in Evolving Data Streams [8.952662914331901]
機械学習のバイアスは、ここ10年で明らかに注目を集めている。
意思決定システムのバイアスに対処する最も公正な機械学習(fair-ML)は、オフライン設定のみに焦点を当てている。
オンラインシステムが現実世界で広く普及しているにもかかわらず、オンライン設定におけるバイアスを特定し修正する作業は極めて不十分である。
論文 参考訳(メタデータ) (2023-02-16T01:20:08Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - Discrimination and Class Imbalance Aware Online Naive Bayes [5.065947993017157]
ストリーム学習アルゴリズムは、人間を重要な意思決定ポイントで置き換えるために使用される。
近年の識別認識学習法は総合的精度に基づいて最適化されている。
本研究では,ストリームに埋め込まれた識別を緩和するために,Na"ive Bayes"の新たな適応を提案する。
論文 参考訳(メタデータ) (2022-11-09T11:20:19Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - Ensuring Fairness Beyond the Training Data [22.284777913437182]
トレーニング分布と摂動のクラスに対して公平な分類器を開発する。
オンライン学習アルゴリズムに基づいて、公正で堅牢な解に収束する反復アルゴリズムを開発する。
実験の結果, 正当性と正当性との間には, 本質的にトレードオフがあることが判明した。
論文 参考訳(メタデータ) (2020-07-12T16:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。