論文の概要: An Empirical Study of Modular Bias Mitigators and Ensembles
- arxiv url: http://arxiv.org/abs/2202.00751v1
- Date: Tue, 1 Feb 2022 20:49:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 02:41:33.598036
- Title: An Empirical Study of Modular Bias Mitigators and Ensembles
- Title(参考訳): モジュラーバイアス緩和器とアンサンブルの実証的研究
- Authors: Michael Feffer, Martin Hirzel, Samuel C. Hoffman, Kiran Kate,
Parikshit Ram, Avraham Shinnar
- Abstract要約: 機械学習モデルには、アルゴリズムバイアスを低減できるバイアス緩和器がいくつかある。
残念なことに、異なるデータ分割で測定した場合、公平性に対する緩和剤の効果は安定しないことが多い。
より安定したモデルをトレーニングするための一般的なアプローチは、アンサンブル学習である。
- 参考スコア(独自算出の注目度): 8.441248174955465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There are several bias mitigators that can reduce algorithmic bias in machine
learning models but, unfortunately, the effect of mitigators on fairness is
often not stable when measured across different data splits. A popular approach
to train more stable models is ensemble learning. Ensembles, such as bagging,
boosting, voting, or stacking, have been successful at making predictive
performance more stable. One might therefore ask whether we can combine the
advantages of bias mitigators and ensembles? To explore this question, we first
need bias mitigators and ensembles to work together. We built an open-source
library enabling the modular composition of 10 mitigators, 4 ensembles, and
their corresponding hyperparameters. Based on this library, we empirically
explored the space of combinations on 13 datasets, including datasets commonly
used in fairness literature plus datasets newly curated by our library.
Furthermore, we distilled the results into a guidance diagram for
practitioners. We hope this paper will contribute towards improving stability
in bias mitigation.
- Abstract(参考訳): 機械学習モデルにはアルゴリズムバイアスを低減できるバイアス緩和器がいくつかあるが、残念ながら、異なるデータ分割で測定した場合、公平性に対する緩和器の効果は安定しないことが多い。
より安定したモデルをトレーニングするための一般的なアプローチは、アンサンブル学習である。
バグング、ブースティング、投票、積み重ねなどのアンサンブルは、予測性能をより安定させることに成功した。
したがって、バイアス緩和器とアンサンブルの利点を組み合わせることができるかどうかを問うことができる。
この問題を調査するためには、まずバイアス緩和器とアンサンブルを併用する必要があります。
我々は,10個のマイティゲータ,4つのアンサンブル,対応するハイパーパラメータのモジュール構成が可能なオープンソースライブラリを構築した。
このライブラリに基づいて,本ライブラリが新たに収集したデータセットに加えて,フェアネス文学で一般的に使用されるデータセットを含む,13のデータセットのコンビネーションの空間を実証的に検討した。
さらに,その成果を実践者の指導図にまとめた。
この論文はバイアス緩和の安定性向上に寄与することを願っている。
関連論文リスト
- Model Debiasing by Learnable Data Augmentation [19.625915578646758]
本稿では,トレーニングを正規化可能なデータ拡張戦略を備えた,新しい2段階学習パイプラインを提案する。
合成および現実的なバイアス付きデータセットの実験は、最先端の分類精度を示し、競合する手法より優れている。
論文 参考訳(メタデータ) (2024-08-09T09:19:59Z) - Addressing Bias Through Ensemble Learning and Regularized Fine-Tuning [0.2812395851874055]
本稿では,AIモデルのバイアスを取り除くために,複数の手法を用いた包括的アプローチを提案する。
我々は、データ分割、局所訓練、正規化ファインチューニングを通じて、事前訓練されたモデルのカウンターバイアスで複数のモデルを訓練する。
我々は、単一のバイアスのないニューラルネットワークをもたらす知識蒸留を用いて、ソリューションを結論付けている。
論文 参考訳(メタデータ) (2024-02-01T09:24:36Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Navigating Ensemble Configurations for Algorithmic Fairness [8.441248174955465]
バイアス緩和器は機械学習モデルのアルゴリズム的公正性を改善することができるが、公平性に対する影響はデータ分割間では安定しないことが多い。
より安定したモデルをトレーニングするための一般的なアプローチは、アンサンブル学習である。
論文 参考訳(メタデータ) (2022-10-11T16:31:47Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - Investigating Bias with a Synthetic Data Generator: Empirical Evidence
and Philosophical Interpretation [66.64736150040093]
機械学習の応用は、私たちの社会でますます広まりつつある。
リスクは、データに埋め込まれたバイアスを体系的に広めることである。
本稿では,特定の種類のバイアスとその組み合わせで合成データを生成するフレームワークを導入することにより,バイアスを分析することを提案する。
論文 参考訳(メタデータ) (2022-09-13T11:18:50Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Learning Debiased Models with Dynamic Gradient Alignment and
Bias-conflicting Sample Mining [39.00256193731365]
ディープニューラルネットワークは、堅牢性、一般化、公正性をモデル化するのに有害なデータセットバイアスに悩まされている。
難解な未知のバイアスと戦うための2段階のデバイアス方式を提案する。
論文 参考訳(メタデータ) (2021-11-25T14:50:10Z) - Hidden Biases in Unreliable News Detection Datasets [60.71991809782698]
データ収集中の選択バイアスがデータセットの望ましくないアーティファクトにつながることを示す。
クリーンスプリットでテストされたすべてのモデルに対して,列車/テストソースの重なりが無く,精度が大幅に低下した(>10%)。
将来的なデータセット生成には、困難/バイアスプローブとしての単純なモデルと、クリーンな非重複サイトと日付分割を使用する将来のモデル開発が含まれることを提案する。
論文 参考訳(メタデータ) (2021-04-20T17:16:41Z) - Learning to Model and Ignore Dataset Bias with Mixed Capacity Ensembles [66.15398165275926]
本稿では,データセット固有のパターンを自動的に検出・無視する手法を提案する。
我々の方法は、より高い容量モデルでアンサンブルで低容量モデルを訓練する。
視覚的質問応答データセットの10ポイントゲインを含む,すべての設定の改善を示す。
論文 参考訳(メタデータ) (2020-11-07T22:20:03Z) - Improving Robustness by Augmenting Training Sentences with
Predicate-Argument Structures [62.562760228942054]
データセットバイアスに対するロバスト性を改善する既存のアプローチは、主にトレーニング目標の変更に焦点を当てている。
本稿では,学習データ中の入力文に対応する述語句構造を付加することを提案する。
特定のバイアスを対象とせずに、文の増大は、複数のバイアスに対してトランスフォーマーモデルの堅牢性を向上することを示す。
論文 参考訳(メタデータ) (2020-10-23T16:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。