論文の概要: A Statistical Test for Probabilistic Fairness
- arxiv url: http://arxiv.org/abs/2012.04800v1
- Date: Wed, 9 Dec 2020 00:20:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 16:12:05.992918
- Title: A Statistical Test for Probabilistic Fairness
- Title(参考訳): 確率的公平性の統計試験
- Authors: Bahar Taskesen, Jose Blanchet, Daniel Kuhn, Viet Anh Nguyen
- Abstract要約: 不正な分類を検知するための統計的仮説テストを提案する。
理論的にも実証的にも,提案された試験が正しいことを示す。
さらに,提案フレームワークは,データの最も好ましい摂動を識別することにより,解釈可能性を提供する。
- 参考スコア(独自算出の注目度): 11.95891442664266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithms are now routinely used to make consequential decisions that affect
human lives. Examples include college admissions, medical interventions or law
enforcement. While algorithms empower us to harness all information hidden in
vast amounts of data, they may inadvertently amplify existing biases in the
available datasets. This concern has sparked increasing interest in fair
machine learning, which aims to quantify and mitigate algorithmic
discrimination. Indeed, machine learning models should undergo intensive tests
to detect algorithmic biases before being deployed at scale. In this paper, we
use ideas from the theory of optimal transport to propose a statistical
hypothesis test for detecting unfair classifiers. Leveraging the geometry of
the feature space, the test statistic quantifies the distance of the empirical
distribution supported on the test samples to the manifold of distributions
that render a pre-trained classifier fair. We develop a rigorous hypothesis
testing mechanism for assessing the probabilistic fairness of any pre-trained
logistic classifier, and we show both theoretically as well as empirically that
the proposed test is asymptotically correct. In addition, the proposed
framework offers interpretability by identifying the most favorable
perturbation of the data so that the given classifier becomes fair.
- Abstract(参考訳): 今やアルゴリズムは、人間の生活に影響を与える一連の決定を下すために日常的に使われている。
例えば、大学入学、医療介入、法執行などである。
アルゴリズムは大量のデータに隠されたすべての情報を活用するのに役立ちますが、利用可能なデータセットの既存のバイアスを必然的に増幅するかもしれません。
この懸念は、アルゴリズムによる差別の定量化と緩和を目的とした、公正な機械学習への関心の高まりを促した。
実際、機械学習モデルは大規模にデプロイされる前にアルゴリズムバイアスを検出するために集中的なテストを実施する必要がある。
本稿では,不公平な分類器を検出するための統計的仮説テストを提案するために,最適輸送理論のアイデアを用いる。
特徴空間の幾何学を活用し、テスト統計学はテストサンプルで支持される経験的分布と事前訓練された分類器を公平にする分布の多様体の距離を定量化する。
我々は,事前学習したロジスティック分類器の確率的公平性を評価するための厳密な仮説検定機構を開発し,理論上も経験的にも提案手法が漸近的に正しいことを示す。
さらに、提案手法は、与えられた分類器が公平になるようにデータの最も好ましい摂動を識別することで解釈可能性を提供する。
関連論文リスト
- Seeing Unseen: Discover Novel Biomedical Concepts via
Geometry-Constrained Probabilistic Modeling [53.7117640028211]
同定された問題を解決するために,幾何制約付き確率的モデリング処理を提案する。
構成された埋め込み空間のレイアウトに適切な制約を課すために、重要な幾何学的性質のスイートを組み込む。
スペクトルグラフ理論法は、潜在的な新規クラスの数を推定するために考案された。
論文 参考訳(メタデータ) (2024-03-02T00:56:05Z) - Testing for Overfitting [0.0]
オーバーフィッティング問題について議論し、トレーニングデータによる評価に標準値と集中値が成立しない理由を説明する。
本稿では,モデルの性能をトレーニングデータを用いて評価できる仮説テストを紹介し,議論する。
論文 参考訳(メタデータ) (2023-05-09T22:49:55Z) - Provable Detection of Propagating Sampling Bias in Prediction Models [1.7709344190822935]
本稿では,データバイアスの特定の形式である差分サンプリングバイアスが,データステージから予測ステージにどのように伝播するかを理論的に分析する。
妥当な仮定の下では、モデル予測におけるバイアスの量が、データの差分サンプリングバイアスの量の関数としてどのように変化するかを定量化する。
仮定が緩和された場合でも理論的な結果が実際に成り立つことを実証する。
論文 参考訳(メタデータ) (2023-02-13T23:39:35Z) - Bounding Counterfactuals under Selection Bias [60.55840896782637]
本稿では,識別不能なクエリと識別不能なクエリの両方に対処するアルゴリズムを提案する。
選択バイアスによって引き起こされる欠如にもかかわらず、利用可能なデータの可能性は無限であることを示す。
論文 参考訳(メタデータ) (2022-07-26T10:33:10Z) - A Sandbox Tool to Bias(Stress)-Test Fairness Algorithms [19.86635585740634]
バイアス注入型サンドボックスツールの概念と実装について, 各種バイアスの公平性について検討する。
既存のツールキットとは異なり、私たちのツールはMLパイプラインに事実上バイアスを注入する制御された環境を提供します。
特に、バイアス注入前において、偏りのない状態の真のラベルに介入した後に生じる予測を比較することで、与えられた治療法が注入されたバイアスを軽減することができるかどうかを検証できる。
論文 参考訳(メタデータ) (2022-04-21T16:12:19Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Testing Group Fairness via Optimal Transport Projections [12.972104025246091]
提案試験は, 摂動に偏りを示すか, データのランダム性に起因するかを評価するための, 柔軟な, 解釈可能な, 統計的に厳密なツールである。
グループフェアネスを定義する複数の影響基準から生じる可能性のある統計的課題は、グループフェア確率モデルの集合に経験的測度を投影することによって、都合よく取り組まれる。
提案フレームワークは,複数属性の合成固有フェアネス仮説およびフェアネスの試験にも使用することができる。
論文 参考訳(メタデータ) (2021-06-02T10:51:39Z) - Robust Fairness-aware Learning Under Sample Selection Bias [17.09665420515772]
サンプル選択バイアス下での頑健で公正な学習のための枠組みを提案する。
テストデータが利用可能で、利用できない場合に、サンプル選択バイアスを処理する2つのアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-05-24T23:23:36Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Balance-Subsampled Stable Prediction [55.13512328954456]
本稿では, 分数分解設計理論に基づく新しいバランスサブサンプル安定予測法を提案する。
設計理論解析により,提案手法は分布シフトによって誘導される予測器間の共起効果を低減できることを示した。
合成および実世界の両方のデータセットに関する数値実験により、BSSPアルゴリズムは未知のテストデータ間で安定した予測を行うためのベースライン法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2020-06-08T07:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。