論文の概要: FADE: FAir Double Ensemble Learning for Observable and Counterfactual
Outcomes
- arxiv url: http://arxiv.org/abs/2109.00173v1
- Date: Wed, 1 Sep 2021 03:56:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-02 18:16:30.544797
- Title: FADE: FAir Double Ensemble Learning for Observable and Counterfactual
Outcomes
- Title(参考訳): FADE: 観測可能で非現実的な成果のためのFAir Double Ensemble Learning
- Authors: Alan Mishler, Edward Kennedy
- Abstract要約: 公正予測器を構築する方法は、フェアネスと精度、およびフェアネスの異なる基準の間のトレードオフを伴うことが多い。
フェアネス・精度の空間を効率的に探索できるフェアアンサンブル学習のためのフレキシブルなフレームワークを開発した。
驚くべきことに、複数の不公平度対策は、精度にほとんど影響を与えないと同時に、同時に最小化できることが示される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Methods for building fair predictors often involve tradeoffs between fairness
and accuracy and between different fairness criteria, but the nature of these
tradeoffs varies. Recent work seeks to characterize these tradeoffs in specific
problem settings, but these methods often do not accommodate users who wish to
improve the fairness of an existing benchmark model without sacrificing
accuracy, or vice versa. These results are also typically restricted to
observable accuracy and fairness criteria. We develop a flexible framework for
fair ensemble learning that allows users to efficiently explore the
fairness-accuracy space or to improve the fairness or accuracy of a benchmark
model. Our framework can simultaneously target multiple observable or
counterfactual fairness criteria, and it enables users to combine a large
number of previously trained and newly trained predictors. We provide
theoretical guarantees that our estimators converge at fast rates. We apply our
method on both simulated and real data, with respect to both observable and
counterfactual accuracy and fairness criteria. We show that, surprisingly,
multiple unfairness measures can sometimes be minimized simultaneously with
little impact on accuracy, relative to unconstrained predictors or existing
benchmark models.
- Abstract(参考訳): 公正な予測器を構築するには、フェアネスと正確さのトレードオフや、異なるフェアネス基準が含まれることが多いが、これらのトレードオフの性質は様々である。
最近の研究は、特定の問題設定でこれらのトレードオフを特徴付けることを目的としているが、これらの方法は、精度を犠牲にすることなく既存のベンチマークモデルの公平性を改善したいと願うユーザーには適さないことが多い。
これらの結果は通常、観測可能な精度と公平性基準に制限される。
フェアネス精度空間を効率的に探索したり、ベンチマークモデルのフェアネスや精度を向上させることができるフェアアンサンブル学習のための柔軟なフレームワークを開発する。
我々のフレームワークは、同時に複数の観測可能な、あるいは反ファクトの公正度基準を目標とすることができ、ユーザーは、以前に訓練された、新しく訓練された予測器を多数組み合わせることができる。
我々は推定器が高速で収束することを理論的に保証する。
本手法をシミュレーションデータと実データの両方に適用し,可観測性および非実測精度と公平性基準の両方について検討した。
意外なことに、制約のない予測モデルや既存のベンチマークモデルと比較して、精度にほとんど影響を与えずに、複数の不公平性対策を同時に最小化できることが示される。
関連論文リスト
- Achievable Fairness on Your Data With Utility Guarantees [16.78730663293352]
機械学習の公平性において、異なるセンシティブなグループ間の格差を最小限に抑えるトレーニングモデルは、しばしば精度を低下させる。
本稿では,各データセットに適合する公平性-正確性トレードオフ曲線を近似する計算効率のよい手法を提案する。
そこで我々は,モデルフェアネスを監査するための堅牢な枠組みを実践者に提供し,評価の不確実性を定量化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T00:59:32Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Mitigating Unfairness via Evolutionary Multi-objective Ensemble Learning [0.8563354084119061]
1つまたは複数の公正度対策を最適化することは、他の措置を犠牲にしたり、悪化させることがある。
複数のメトリクスを同時に最適化するために、多目的進化学習フレームワークが使用される。
提案アルゴリズムは,意思決定者に対して,精度とマルチフェアネス指標のトレードオフを向上する。
論文 参考訳(メタデータ) (2022-10-30T06:34:10Z) - FEAMOE: Fair, Explainable and Adaptive Mixture of Experts [9.665417053344614]
FEAMOEは、より公平で説明可能な、解釈可能なモデルを学ぶことを目的とした、"mixture-of-experts"にインスパイアされたフレームワークである。
線形エキスパートの混合物に適用した我々のフレームワークは、より公平なモデルを作成しながら、精度の観点からニューラルネットワークに相容れない性能を発揮できることを示す。
また,提案フレームワークがShapley値の高速な説明を可能にすることも証明した。
論文 参考訳(メタデータ) (2022-10-10T20:02:02Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - Fairly Accurate: Learning Optimal Accuracy vs. Fairness Tradeoffs for
Hate Speech Detection [8.841221697099687]
本稿では,モデルトレーニングにおけるグループフェアネスの直接最適化を可能にする,微分可能な尺度を提案する。
ヘイトスピーチ検出の特定のタスクについて,本手法の評価を行った。
畳み込み、シーケンシャル、トランスフォーマーに基づくニューラルネットワークによる実験結果は、事前の作業よりも経験的精度が優れている。
論文 参考訳(メタデータ) (2022-04-15T22:11:25Z) - Learning Optimal Fair Classification Trees: Trade-offs Between
Interpretability, Fairness, and Accuracy [7.215903549622416]
最適分類木を学習するための混合整数最適化フレームワークを提案する。
我々は、一般的なデータセットの公平な分類のための最先端アプローチに対して、我々の手法をベンチマークする。
我々の手法は、ほぼ完全に一致した決定を一貫して見つけ出すが、他の手法は滅多にない。
論文 参考訳(メタデータ) (2022-01-24T19:47:10Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。