論文の概要: Justicia: A Stochastic SAT Approach to Formally Verify Fairness
- arxiv url: http://arxiv.org/abs/2009.06516v2
- Date: Thu, 7 Oct 2021 03:11:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 12:00:10.644874
- Title: Justicia: A Stochastic SAT Approach to Formally Verify Fairness
- Title(参考訳): justicia: 公正を正式に検証するための確率的satアプローチ
- Authors: Bishwamittra Ghosh, Debabrota Basu, Kuldeep S. Meel
- Abstract要約: そこで本研究では,教師付き学習アルゴリズムの公正度を正式に検証する,満足度の高いフレームワークであるJusticiaを提案する。
Justiciaはスケーラブルで正確で、既存の分散ベースの検証器とは異なり、非ブールおよび複合感度属性で動作する。
- 参考スコア(独自算出の注目度): 38.482411134083236
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As a technology ML is oblivious to societal good or bad, and thus, the field
of fair machine learning has stepped up to propose multiple mathematical
definitions, algorithms, and systems to ensure different notions of fairness in
ML applications. Given the multitude of propositions, it has become imperative
to formally verify the fairness metrics satisfied by different algorithms on
different datasets. In this paper, we propose a stochastic satisfiability
(SSAT) framework, Justicia, that formally verifies different fairness measures
of supervised learning algorithms with respect to the underlying data
distribution. We instantiate Justicia on multiple classification and bias
mitigation algorithms, and datasets to verify different fairness metrics, such
as disparate impact, statistical parity, and equalized odds. Justicia is
scalable, accurate, and operates on non-Boolean and compound sensitive
attributes unlike existing distribution-based verifiers, such as FairSquare and
VeriFair. Being distribution-based by design, Justicia is more robust than the
verifiers, such as AIF360, that operate on specific test samples. We also
theoretically bound the finite-sample error of the verified fairness measure.
- Abstract(参考訳): テクノロジとしてのMLは、社会的善悪を損なうものではないため、公正機械学習の分野は、複数の数学的定義、アルゴリズム、システムを提案して、MLアプリケーションにおける公正性の異なる概念を確実にする。
多くの命題を考えると、異なるデータセット上で異なるアルゴリズムによって満たされる公正度メトリクスを正式に検証することが義務づけられている。
本稿では,教師付き学習アルゴリズムの異なる公平性尺度を,基礎となるデータ分布に対して形式的に検証する確率的満足度(ssat)フレームワークであるjusticiaを提案する。
複数の分類とバイアス緩和アルゴリズム、データセットでjusticiaをインスタンス化し、異なる公平度指標(例えば、ばらばらな影響、統計的パリティ、等化オッズ)を検証する。
justiciaはスケーラブルで正確であり、fairsquareやverifairのような既存の分散ベースの検証器とは異なり、非booleanおよび複合的な感度特性で動作する。
設計による分布ベースであるため、Justiciaは特定のテストサンプルで動作するAIF360のような検証器よりも堅牢である。
また、検証された公正度尺度の有限サンプル誤差も理論的に拘束する。
関連論文リスト
- Intrinsic Fairness-Accuracy Tradeoffs under Equalized Odds [8.471466670802817]
等化確率の統計的概念の下で、公正性と精度のトレードオフについて検討する。
フェアネス予算の関数として, 精度の新たな上限を提示する。
以上の結果から,低バイアス群に対する高い精度の達成は,グループ間の統計的格差に基づいて根本的に制限される可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-12T23:15:21Z) - Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Algorithmic Fairness Verification with Graphical Models [24.8005399877574]
本稿では,ベイズネットワークのような特徴間の相関を符号化する,FVGMと呼ばれる効率の良いフェアネス検証手法を提案する。
FVGMは、より多様なフェアネス向上アルゴリズムのファミリーに対して、正確でスケーラブルな評価をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-20T12:05:14Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。