論文の概要: FEAMOE: Fair, Explainable and Adaptive Mixture of Experts
- arxiv url: http://arxiv.org/abs/2210.04995v1
- Date: Mon, 10 Oct 2022 20:02:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 14:54:27.883406
- Title: FEAMOE: Fair, Explainable and Adaptive Mixture of Experts
- Title(参考訳): FEAMOE: 専門家の公正で説明可能な、適応的な混合
- Authors: Shubham Sharma, Jette Henderson, Joydeep Ghosh
- Abstract要約: FEAMOEは、より公平で説明可能な、解釈可能なモデルを学ぶことを目的とした、"mixture-of-experts"にインスパイアされたフレームワークである。
線形エキスパートの混合物に適用した我々のフレームワークは、より公平なモデルを作成しながら、精度の観点からニューラルネットワークに相容れない性能を発揮できることを示す。
また,提案フレームワークがShapley値の高速な説明を可能にすることも証明した。
- 参考スコア(独自算出の注目度): 9.665417053344614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Three key properties that are desired of trustworthy machine learning models
deployed in high-stakes environments are fairness, explainability, and an
ability to account for various kinds of "drift". While drifts in model
accuracy, for example due to covariate shift, have been widely investigated,
drifts in fairness metrics over time remain largely unexplored. In this paper,
we propose FEAMOE, a novel "mixture-of-experts" inspired framework aimed at
learning fairer, more explainable/interpretable models that can also rapidly
adjust to drifts in both the accuracy and the fairness of a classifier. We
illustrate our framework for three popular fairness measures and demonstrate
how drift can be handled with respect to these fairness constraints.
Experiments on multiple datasets show that our framework as applied to a
mixture of linear experts is able to perform comparably to neural networks in
terms of accuracy while producing fairer models. We then use the large-scale
HMDA dataset and show that while various models trained on HMDA demonstrate
drift with respect to both accuracy and fairness, FEAMOE can ably handle these
drifts with respect to all the considered fairness measures and maintain model
accuracy as well. We also prove that the proposed framework allows for
producing fast Shapley value explanations, which makes computationally
efficient feature attribution based explanations of model decisions readily
available via FEAMOE.
- Abstract(参考訳): 高スループット環境にデプロイされた信頼できる機械学習モデルに望まれる3つの重要な特性は、公平性、説明可能性、さまざまな種類の「ドリフト」を考慮できる能力である。
モデル精度のドリフト(例:共変量シフトによるドリフト)は広く研究されているが、フェアネスメトリクスのドリフトはほとんど未調査のままである。
本稿では,FEAMOEを提案する。FEAMOEは,より公平に学習し,より説明可能な,解釈可能なモデルであり,分類器の精度と公平性の両方において,ドリフトに迅速に適応できるフレームワークである。
我々は,この3つのフェアネス尺度の枠組みを説明し,これらのフェアネス制約に対してドリフトがどのように扱われるかを示す。
複数のデータセットにおける実験により、線形エキスパートの混合に適用されたフレームワークは、より公平なモデルを作成しながら、精度の面でニューラルネットワークに比較可能であることが示されている。
次に、大規模HMDAデータセットを用いて、HMDAでトレーニングされた様々なモデルが、精度と公平性の両方に関してドリフトを示す一方で、FEAMOEは、考慮された公正性対策のすべてに関してこれらのドリフトを適切に処理でき、モデル精度も維持できることを示す。
また,提案フレームワークは高速なShapley値記述を可能とし,FEAMOEで利用可能なモデル決定について,計算効率の良い特徴属性に基づく説明を行う。
関連論文リスト
- Enhancing Fairness in Neural Networks Using FairVIC [0.0]
自動意思決定システム、特にディープラーニングモデルにおけるバイアスの緩和は、公平性を達成する上で重要な課題である。
FairVICは、トレーニング段階で固有のバイアスに対処することによって、ニューラルネットワークの公平性を高めるために設計された革新的なアプローチである。
我々は、モデルの精度を有害な程度に向上させることなく、テスト対象のすべての指標の公平性を大幅に改善する。
論文 参考訳(メタデータ) (2024-04-28T10:10:21Z) - Achievable Fairness on Your Data With Utility Guarantees [16.78730663293352]
機械学習の公平性において、異なるセンシティブなグループ間の格差を最小限に抑えるトレーニングモデルは、しばしば精度を低下させる。
本稿では,各データセットに適合する公平性-正確性トレードオフ曲線を近似する計算効率のよい手法を提案する。
そこで我々は,モデルフェアネスを監査するための堅牢な枠組みを実践者に提供し,評価の不確実性を定量化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T00:59:32Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - FADE: FAir Double Ensemble Learning for Observable and Counterfactual
Outcomes [0.0]
公正予測器を構築する方法は、フェアネスと精度、およびフェアネスの異なる基準の間のトレードオフを伴うことが多い。
フェアネス・精度の空間を効率的に探索できるフェアアンサンブル学習のためのフレキシブルなフレームワークを開発した。
驚くべきことに、複数の不公平度対策は、精度にほとんど影響を与えないと同時に、同時に最小化できることが示される。
論文 参考訳(メタデータ) (2021-09-01T03:56:43Z) - MixKD: Towards Efficient Distillation of Large-scale Language Models [129.73786264834894]
データに依存しない蒸留フレームワークであるMixKDを提案する。
妥当な条件下では、MixKDは誤差と経験的誤差の間のギャップを小さくする。
限定的なデータ設定とアブレーションによる実験は、提案手法の利点をさらに証明している。
論文 参考訳(メタデータ) (2020-11-01T18:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。