論文の概要: Provable Detection of Propagating Sampling Bias in Prediction Models
- arxiv url: http://arxiv.org/abs/2302.06752v1
- Date: Mon, 13 Feb 2023 23:39:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 16:47:47.120051
- Title: Provable Detection of Propagating Sampling Bias in Prediction Models
- Title(参考訳): 予測モデルにおける伝搬型サンプリングバイアスの検出
- Authors: Pavan Ravishankar, Qingyu Mo, Edward McFowland III, Daniel B. Neill
- Abstract要約: 本稿では,データバイアスの特定の形式である差分サンプリングバイアスが,データステージから予測ステージにどのように伝播するかを理論的に分析する。
妥当な仮定の下では、モデル予測におけるバイアスの量が、データの差分サンプリングバイアスの量の関数としてどのように変化するかを定量化する。
仮定が緩和された場合でも理論的な結果が実際に成り立つことを実証する。
- 参考スコア(独自算出の注目度): 1.7709344190822935
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With an increased focus on incorporating fairness in machine learning models,
it becomes imperative not only to assess and mitigate bias at each stage of the
machine learning pipeline but also to understand the downstream impacts of bias
across stages. Here we consider a general, but realistic, scenario in which a
predictive model is learned from (potentially biased) training data, and model
predictions are assessed post-hoc for fairness by some auditing method. We
provide a theoretical analysis of how a specific form of data bias,
differential sampling bias, propagates from the data stage to the prediction
stage. Unlike prior work, we evaluate the downstream impacts of data biases
quantitatively rather than qualitatively and prove theoretical guarantees for
detection. Under reasonable assumptions, we quantify how the amount of bias in
the model predictions varies as a function of the amount of differential
sampling bias in the data, and at what point this bias becomes provably
detectable by the auditor. Through experiments on two criminal justice datasets
-- the well-known COMPAS dataset and historical data from NYPD's stop and frisk
policy -- we demonstrate that the theoretical results hold in practice even
when our assumptions are relaxed.
- Abstract(参考訳): 機械学習モデルに公平性を導入することへの注目が高まる中、機械学習パイプラインの各ステージにおけるバイアスの評価と緩和だけでなく、ステージ間のバイアスの下流への影響を理解することが必須となる。
ここでは、(潜在的に偏りのある)トレーニングデータから予測モデルを学習する一般的な、しかし現実的なシナリオを考察し、いくつかの監査方法によってモデル予測をフェアネスの後に評価する。
本稿では,データバイアスの特定の形式である差分サンプリングバイアスが,データステージから予測ステージにどのように伝播するかを理論的に分析する。
先行研究とは異なり,データバイアスの下流への影響を質的ではなく定量的に評価し,検出に対する理論的保証を証明する。
合理的な仮定の下では、モデル予測におけるバイアスの量は、データ内の差動サンプリングバイアスの関数としてどのように変化するか、そしてどの時点でこのバイアスが監査者によって確実に検出されるのかを定量化する。
2つの刑事司法データセット(有名なCompASデータセットとNYPDのストップとフリスクポリシーの歴史的データ)の実験を通じて、我々の仮定が緩和された場合でも理論結果が実践されることを示した。
関連論文リスト
- The Mirrored Influence Hypothesis: Efficient Data Influence Estimation by Harnessing Forward Passes [30.30769701138665]
我々は、訓練データとテストデータの間の相互影響を浮き彫りにして、ミラーレッド影響仮説を導入し、探求する。
具体的には、テスト予測に対するトレーニングデータの影響を評価することは、等価だが逆問題として再定義することができることを示唆している。
トレーニングポイント毎に前方パスとペアを組むことで,特定のテストサンプルの勾配を計算し,トレーニングデータの影響を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-14T03:43:05Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - Systematic Evaluation of Predictive Fairness [60.0947291284978]
バイアス付きデータセットのトレーニングにおけるバイアスの緩和は、重要なオープンな問題である。
複数のタスクにまたがる様々なデバイアス化手法の性能について検討する。
データ条件が相対モデルの性能に強い影響を与えることがわかった。
論文 参考訳(メタデータ) (2022-10-17T05:40:13Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Bayesian analysis of the prevalence bias: learning and predicting from
imbalanced data [10.659348599372944]
本稿では,モデル学習のための理論的および計算的枠組みと,有病率バイアスの存在下での予測について述べる。
原則的なトレーニング損失の代替として,要約曲線から操作点を選択することで,テスト時の手順を補完するものだ。
バックプロパゲーションを用いた(深い)学習の現在のパラダイムにシームレスに統合され、ベイズモデルと自然に結合する。
論文 参考訳(メタデータ) (2021-07-31T14:36:33Z) - Robust Fairness-aware Learning Under Sample Selection Bias [17.09665420515772]
サンプル選択バイアス下での頑健で公正な学習のための枠組みを提案する。
テストデータが利用可能で、利用できない場合に、サンプル選択バイアスを処理する2つのアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-05-24T23:23:36Z) - Robust Validation: Confident Predictions Even When Distributions Shift [19.327409270934474]
本稿では,モデルが点予測ではなく,その予測に対して不確実な推定を行うような,頑健な予測推論の手順について述べる。
本稿では, トレーニング集団の周囲に$f$-divergence のボールを用いて, 任意のテスト分布に対して適切なカバレッジレベルを与える予測セットを生成する手法を提案する。
私たちの方法論の重要な構成要素は、将来のデータシフトの量を見積り、それに対する堅牢性を構築することです。
論文 参考訳(メタデータ) (2020-08-10T17:09:16Z) - Balance-Subsampled Stable Prediction [55.13512328954456]
本稿では, 分数分解設計理論に基づく新しいバランスサブサンプル安定予測法を提案する。
設計理論解析により,提案手法は分布シフトによって誘導される予測器間の共起効果を低減できることを示した。
合成および実世界の両方のデータセットに関する数値実験により、BSSPアルゴリズムは未知のテストデータ間で安定した予測を行うためのベースライン法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2020-06-08T07:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。