論文の概要: Navigating Ensemble Configurations for Algorithmic Fairness
- arxiv url: http://arxiv.org/abs/2210.05594v1
- Date: Tue, 11 Oct 2022 16:31:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 17:50:06.285130
- Title: Navigating Ensemble Configurations for Algorithmic Fairness
- Title(参考訳): アルゴリズムフェアネスのためのアンサンブル構成のナビゲーション
- Authors: Michael Feffer, Martin Hirzel, Samuel C. Hoffman, Kiran Kate,
Parikshit Ram, Avraham Shinnar
- Abstract要約: バイアス緩和器は機械学習モデルのアルゴリズム的公正性を改善することができるが、公平性に対する影響はデータ分割間では安定しないことが多い。
より安定したモデルをトレーニングするための一般的なアプローチは、アンサンブル学習である。
- 参考スコア(独自算出の注目度): 8.441248174955465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bias mitigators can improve algorithmic fairness in machine learning models,
but their effect on fairness is often not stable across data splits. A popular
approach to train more stable models is ensemble learning, but unfortunately,
it is unclear how to combine ensembles with mitigators to best navigate
trade-offs between fairness and predictive performance. To that end, we built
an open-source library enabling the modular composition of 8 mitigators, 4
ensembles, and their corresponding hyperparameters, and we empirically explored
the space of configurations on 13 datasets. We distilled our insights from this
exploration in the form of a guidance diagram for practitioners that we
demonstrate is robust and reproducible.
- Abstract(参考訳): バイアス緩和器は機械学習モデルのアルゴリズム的公正性を改善することができるが、公平性に対する影響はデータ分割間では安定しないことが多い。
より安定したモデルをトレーニングするための一般的なアプローチはアンサンブル学習だが、あいにく、公平性と予測パフォーマンスの間のトレードオフを最善にナビゲートするためにアンサンブルと緩和子を組み合わせる方法が不明である。
そこで我々は,8個のマイティゲータと4つのアンサンブル,対応するハイパーパラメータのモジュール構成が可能なオープンソースライブラリを構築し,13個のデータセットの構成空間を実証的に検討した。
この調査から得られた洞察を,堅牢で再現可能な実践者のためのガイダンスダイアグラムの形で精査した。
関連論文リスト
- Towards Cohesion-Fairness Harmony: Contrastive Regularization in
Individual Fair Graph Clustering [5.255750357176021]
iFairNMTFは、対照的なフェアネス正則化を持つ個別のフェアネス非負行列三要素化モデルである。
我々のモデルは、カスタマイズ可能な精度対公平トレードオフを可能にし、それによってユーザーの自律性を高める。
論文 参考訳(メタデータ) (2024-02-16T15:25:56Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - Data Augmentation via Subgroup Mixup for Improving Fairness [31.296907816698987]
グループフェアネスを改善するために、サブグループ間のペアワイズミキシングによるデータ拡張を提案する。
分類性能を向上させるためのミックスアップの成功に触発されて、トレーニングデータを増やすためのペアワイドミックスアップスキームを開発した。
論文 参考訳(メタデータ) (2023-09-13T17:32:21Z) - Joint Training of Deep Ensembles Fails Due to Learner Collusion [61.557412796012535]
機械学習モデルのアンサンブルは、単一のモデルよりもパフォーマンスを改善する強力な方法として確立されている。
伝統的に、アンサンブルアルゴリズムは、ジョイントパフォーマンスの最適化を目標として、ベースラーナーを独立または逐次訓練する。
アンサンブルの損失を最小化することは、実際にはほとんど適用されないことを示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:07Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - An Empirical Study of Modular Bias Mitigators and Ensembles [8.441248174955465]
機械学習モデルには、アルゴリズムバイアスを低減できるバイアス緩和器がいくつかある。
残念なことに、異なるデータ分割で測定した場合、公平性に対する緩和剤の効果は安定しないことが多い。
より安定したモデルをトレーニングするための一般的なアプローチは、アンサンブル学習である。
論文 参考訳(メタデータ) (2022-02-01T20:49:02Z) - Ensemble Learning-Based Approach for Improving Generalization Capability
of Machine Reading Comprehension Systems [0.7614628596146599]
機械読み取り(MRC)は、近年、多くの開発が成功した自然言語処理の活発な分野である。
分布精度が高いにもかかわらず、これらのモデルには2つの問題がある。
本稿では,大規模モデルを再学習することなく,MCCシステムの一般化を改善するためのアンサンブル学習手法の効果について検討する。
論文 参考訳(メタデータ) (2021-07-01T11:11:17Z) - BiFair: Training Fair Models with Bilevel Optimization [8.2509884277533]
我々は,ユーティリティの最小化と公正な関心の喪失を両立させる,BiFairという新しいトレーニングアルゴリズムを開発した。
我々のアルゴリズムは、常により良い性能、すなわち、与えられた公正度メトリックのより優れた値、あるいはより高い精度で到達する。
論文 参考訳(メタデータ) (2021-06-03T22:36:17Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。