論文の概要: Fairness Uncertainty Quantification: How certain are you that the model
is fair?
- arxiv url: http://arxiv.org/abs/2304.13950v1
- Date: Thu, 27 Apr 2023 04:07:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 14:25:37.518486
- Title: Fairness Uncertainty Quantification: How certain are you that the model
is fair?
- Title(参考訳): Fairness Uncertainity Quantification: モデルがフェアであることを、どの程度確信していますか?
- Authors: Abhishek Roy, Prasant Mohapatra
- Abstract要約: 現代の機械学習において、グラディエント・Descent(SGD)型アルゴリズムは、学習されたモデルがランダムであることを示す訓練アルゴリズムとして、ほぼ常に使用される。
本研究では,グループフェアネスを意識した信頼区間(CI)、特にDI(Disparate Impact)とDM(Disparate Mistreatment)を意識した線形二項分類器をオンラインSGD型アルゴリズムを用いてトレーニングする場合に,不公平性テストのための信頼区間(CI)を提供する。
- 参考スコア(独自算出の注目度): 13.209748908186606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness-aware machine learning has garnered significant attention in recent
years because of extensive use of machine learning in sensitive applications
like judiciary systems. Various heuristics, and optimization frameworks have
been proposed to enforce fairness in classification \cite{del2020review} where
the later approaches either provides empirical results or provides fairness
guarantee for the exact minimizer of the objective function
\cite{celis2019classification}. In modern machine learning, Stochastic Gradient
Descent (SGD) type algorithms are almost always used as training algorithms
implying that the learned model, and consequently, its fairness properties are
random. Hence, especially for crucial applications, it is imperative to
construct Confidence Interval (CI) for the fairness of the learned model. In
this work we provide CI for test unfairness when a group-fairness-aware,
specifically, Disparate Impact (DI), and Disparate Mistreatment (DM) aware
linear binary classifier is trained using online SGD-type algorithms. We show
that asymptotically a Central Limit Theorem holds for the estimated model
parameter of both DI and DM-aware models. We provide online multiplier
bootstrap method to estimate the asymptotic covariance to construct online CI.
To do so, we extend the known theoretical guarantees shown on the consistency
of the online bootstrap method for unconstrained SGD to constrained
optimization which could be of independent interest. We illustrate our results
on synthetic and real datasets.
- Abstract(参考訳): 公正を意識した機械学習は、司法システムのようなセンシティブなアプリケーションに機械学習を多用したため、近年大きな注目を集めている。
様々なヒューリスティック、最適化フレームワークが、分類における公平性(fairness)を強制するために提案されており、後者のアプローチは経験的結果を提供するか、目的関数 \cite{celis2019分類(英語版)} の正確な最小化に対する公平性を保証する。
現代の機械学習では、SGD(Stochastic Gradient Descent)型アルゴリズムは学習されたモデルがランダムであることを暗示する訓練アルゴリズムとして、ほぼ常に使われている。
したがって、特に重要な応用においては、学習モデルの公平性のために信頼区間(CI)を構築することが不可欠である。
本研究では,グループフェアネスを意識したCI,特にDI(Disparate Impact)とDM(Disparate Mistreatment)を意識した線形二項分類器をオンラインSGD型アルゴリズムでトレーニングした場合に,テストの不公平性をテストする。
漸近的に中央極限定理がdiおよびdm-awareモデルの推定モデルパラメータに対して成立することを示す。
オンラインciを構成する漸近共分散を推定するためのオンラインマルチプライアブートストラップ法を提案する。
そこで本稿では,制約のないSGDに対するオンラインブートストラップ手法の整合性に関する既知の理論的保証を,独立性のある制約付き最適化に拡張する。
結果は、合成データと実際のデータセットで示します。
関連論文リスト
- Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - Getting More Juice Out of the SFT Data: Reward Learning from Human Demonstration Improves SFT for LLM Alignment [65.15914284008973]
我々は、報酬モデルと政策モデルを同時に構築するために、逆強化学習(IRL)技術を活用することを提案する。
提案アルゴリズムはIRL問題の定常解に収束することを示す。
その結果,アライメントプロセス全体を通じて報酬学習を活用することは有益であることが示唆された。
論文 参考訳(メタデータ) (2024-05-28T07:11:05Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率の高いディープアンサンブル手法であるLoRA-Ensembleを紹介する。
全メンバー間で重みを共有できる1つの事前学習型自己注意ネットワークを利用することで、注意投影のために、メンバー固有の低ランク行列を訓練する。
提案手法は明示的なアンサンブルよりも優れたキャリブレーションを示し,様々な予測タスクやデータセットに対して類似あるいは良好な精度を実現する。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - Deep autoregressive density nets vs neural ensembles for model-based
offline reinforcement learning [2.9158689853305693]
本稿では、利用可能なデータからシステムダイナミクスを推定し、仮想モデルロールアウトにおけるポリシー最適化を行うモデルベース強化学習アルゴリズムについて考察する。
このアプローチは、実際のシステムで破滅的な失敗を引き起こす可能性のあるモデルエラーを悪用することに対して脆弱である。
D4RLベンチマークの1つのよく校正された自己回帰モデルにより、より良い性能が得られることを示す。
論文 参考訳(メタデータ) (2024-02-05T10:18:15Z) - Blending gradient boosted trees and neural networks for point and
probabilistic forecasting of hierarchical time series [0.0]
本稿では、勾配木やニューラルネットワークファミリーに属する機械学習モデルのブレンディング手法について述べる。
これらの原則は、最近のM5コンペティションにおいて、正確性と不確実性の両方のトラックでうまく適用された。
論文 参考訳(メタデータ) (2023-10-19T09:42:02Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z) - Efficient Model-Based Reinforcement Learning through Optimistic Policy
Search and Planning [93.1435980666675]
最先端の強化学習アルゴリズムと楽観的な探索を容易に組み合わせることができることを示す。
我々の実験は、楽観的な探索が行動に罰則がある場合、学習を著しくスピードアップすることを示した。
論文 参考訳(メタデータ) (2020-06-15T18:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。