論文の概要: Fairness Uncertainty Quantification: How certain are you that the model
is fair?
- arxiv url: http://arxiv.org/abs/2304.13950v1
- Date: Thu, 27 Apr 2023 04:07:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 14:25:37.518486
- Title: Fairness Uncertainty Quantification: How certain are you that the model
is fair?
- Title(参考訳): Fairness Uncertainity Quantification: モデルがフェアであることを、どの程度確信していますか?
- Authors: Abhishek Roy, Prasant Mohapatra
- Abstract要約: 現代の機械学習において、グラディエント・Descent(SGD)型アルゴリズムは、学習されたモデルがランダムであることを示す訓練アルゴリズムとして、ほぼ常に使用される。
本研究では,グループフェアネスを意識した信頼区間(CI)、特にDI(Disparate Impact)とDM(Disparate Mistreatment)を意識した線形二項分類器をオンラインSGD型アルゴリズムを用いてトレーニングする場合に,不公平性テストのための信頼区間(CI)を提供する。
- 参考スコア(独自算出の注目度): 13.209748908186606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness-aware machine learning has garnered significant attention in recent
years because of extensive use of machine learning in sensitive applications
like judiciary systems. Various heuristics, and optimization frameworks have
been proposed to enforce fairness in classification \cite{del2020review} where
the later approaches either provides empirical results or provides fairness
guarantee for the exact minimizer of the objective function
\cite{celis2019classification}. In modern machine learning, Stochastic Gradient
Descent (SGD) type algorithms are almost always used as training algorithms
implying that the learned model, and consequently, its fairness properties are
random. Hence, especially for crucial applications, it is imperative to
construct Confidence Interval (CI) for the fairness of the learned model. In
this work we provide CI for test unfairness when a group-fairness-aware,
specifically, Disparate Impact (DI), and Disparate Mistreatment (DM) aware
linear binary classifier is trained using online SGD-type algorithms. We show
that asymptotically a Central Limit Theorem holds for the estimated model
parameter of both DI and DM-aware models. We provide online multiplier
bootstrap method to estimate the asymptotic covariance to construct online CI.
To do so, we extend the known theoretical guarantees shown on the consistency
of the online bootstrap method for unconstrained SGD to constrained
optimization which could be of independent interest. We illustrate our results
on synthetic and real datasets.
- Abstract(参考訳): 公正を意識した機械学習は、司法システムのようなセンシティブなアプリケーションに機械学習を多用したため、近年大きな注目を集めている。
様々なヒューリスティック、最適化フレームワークが、分類における公平性(fairness)を強制するために提案されており、後者のアプローチは経験的結果を提供するか、目的関数 \cite{celis2019分類(英語版)} の正確な最小化に対する公平性を保証する。
現代の機械学習では、SGD(Stochastic Gradient Descent)型アルゴリズムは学習されたモデルがランダムであることを暗示する訓練アルゴリズムとして、ほぼ常に使われている。
したがって、特に重要な応用においては、学習モデルの公平性のために信頼区間(CI)を構築することが不可欠である。
本研究では,グループフェアネスを意識したCI,特にDI(Disparate Impact)とDM(Disparate Mistreatment)を意識した線形二項分類器をオンラインSGD型アルゴリズムでトレーニングした場合に,テストの不公平性をテストする。
漸近的に中央極限定理がdiおよびdm-awareモデルの推定モデルパラメータに対して成立することを示す。
オンラインciを構成する漸近共分散を推定するためのオンラインマルチプライアブートストラップ法を提案する。
そこで本稿では,制約のないSGDに対するオンラインブートストラップ手法の整合性に関する既知の理論的保証を,独立性のある制約付き最適化に拡張する。
結果は、合成データと実際のデータセットで示します。
関連論文リスト
- Deep autoregressive density nets vs neural ensembles for model-based
offline reinforcement learning [2.9158689853305693]
本稿では、利用可能なデータからシステムダイナミクスを推定し、仮想モデルロールアウトにおけるポリシー最適化を行うモデルベース強化学習アルゴリズムについて考察する。
このアプローチは、実際のシステムで破滅的な失敗を引き起こす可能性のあるモデルエラーを悪用することに対して脆弱である。
D4RLベンチマークの1つのよく校正された自己回帰モデルにより、より良い性能が得られることを示す。
論文 参考訳(メタデータ) (2024-02-05T10:18:15Z) - Blending gradient boosted trees and neural networks for point and
probabilistic forecasting of hierarchical time series [0.0]
本稿では、勾配木やニューラルネットワークファミリーに属する機械学習モデルのブレンディング手法について述べる。
これらの原則は、最近のM5コンペティションにおいて、正確性と不確実性の両方のトラックでうまく適用された。
論文 参考訳(メタデータ) (2023-10-19T09:42:02Z) - Generative Modeling of Regular and Irregular Time Series Data via
Koopman VAEs [53.91784369229405]
モデルの新しい設計に基づく新しい生成フレームワークであるKoopman VAEを紹介する。
クープマン理論に触発され、線形写像を用いて潜在条件事前力学を表現する。
以上の結果から,KVAEは,合成および実世界の時系列生成ベンチマークにおいて,最先端のGAN法およびVAE法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-04T07:14:43Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z) - Fair Meta-Learning For Few-Shot Classification [7.672769260569742]
バイアスデータに基づいてトレーニングされた機械学習アルゴリズムは、不公平な予測を行う傾向がある。
本稿では,メタトレイン中のバイアスを効果的に軽減する,高速適応型数ショットメタラーニング手法を提案する。
提案手法は,モデル出力のバイアスを効果的に軽減し,不明瞭なタスクに対して精度と公平性の両方を一般化することを実証的に実証する。
論文 参考訳(メタデータ) (2020-09-23T22:33:47Z) - Efficient Model-Based Reinforcement Learning through Optimistic Policy
Search and Planning [93.1435980666675]
最先端の強化学習アルゴリズムと楽観的な探索を容易に組み合わせることができることを示す。
我々の実験は、楽観的な探索が行動に罰則がある場合、学習を著しくスピードアップすることを示した。
論文 参考訳(メタデータ) (2020-06-15T18:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。