論文の概要: Crab: Learning Certifiably Fair Predictive Models in the Presence of
Selection Bias
- arxiv url: http://arxiv.org/abs/2212.10839v1
- Date: Wed, 21 Dec 2022 08:27:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 13:35:49.775914
- Title: Crab: Learning Certifiably Fair Predictive Models in the Presence of
Selection Bias
- Title(参考訳): カニ:選択バイアスの存在下で証明可能な公正な予測モデルを学ぶ
- Authors: Jiongli Zhu, Nazanin Sabri, Sainyam Galhotra, Babak Salimi
- Abstract要約: 偏りのあるデータに基づいてトレーニングされた予測モデルの公正性を証明し、保証するための新しいフレームワークを導入する。
不完全で一貫性のないデータベースに対するクエリ応答からインスピレーションを得て、問題を提示し、フォーマル化する。
本手法による公正化は, 対象個体群に対して, 公平であるだけでなく, より正確な予測モデルをもたらす可能性があることを示す。
- 参考スコア(独自算出の注目度): 10.613912061919775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A recent explosion of research focuses on developing methods and tools for
building fair predictive models. However, most of this work relies on the
assumption that the training and testing data are representative of the target
population on which the model will be deployed. However, real-world training
data often suffer from selection bias and are not representative of the target
population for many reasons, including the cost and feasibility of collecting
and labeling data, historical discrimination, and individual biases.
In this paper, we introduce a new framework for certifying and ensuring the
fairness of predictive models trained on biased data. We take inspiration from
query answering over incomplete and inconsistent databases to present and
formalize the problem of consistent range approximation (CRA) of answers to
queries about aggregate information for the target population. We aim to
leverage background knowledge about the data collection process, biased data,
and limited or no auxiliary data sources to compute a range of answers for
aggregate queries over the target population that are consistent with available
information. We then develop methods that use CRA of such aggregate queries to
build predictive models that are certifiably fair on the target population even
when no external information about that population is available during
training. We evaluate our methods on real data and demonstrate improvements
over state of the art. Significantly, we show that enforcing fairness using our
methods can lead to predictive models that are not only fair, but more accurate
on the target population.
- Abstract(参考訳): 最近の研究の爆発は、公正な予測モデルを構築するための方法やツールの開発に焦点を当てている。
しかし、この研究の大部分は、トレーニングとテストデータがモデルが展開されるターゲット人口の代表である、という仮定に依存している。
しかしながら、実世界のトレーニングデータは選択バイアスに苦しむことが多く、データの収集とラベル付け、歴史的差別、個人バイアスなど、多くの理由からターゲット人口の代表ではない。
本稿では,バイアスデータに基づいてトレーニングされた予測モデルの妥当性を検証し,保証する新しいフレームワークを提案する。
不完全で一貫性のないデータベース上での問い合わせ応答から着想を得て,対象集団の集計情報に対する回答の一貫性範囲近似問題(cra)を提示し,定式化する。
本研究では,データ収集過程,偏りのあるデータ,補助データソースに関する背景知識を活用し,利用可能な情報と整合する対象集団に対する問合せの回答範囲を計算することを目的とする。
次に,このような集約クエリのCRAを用いて,トレーニング中にその集団に関する外部情報が得られなくても,対象個体群に対して確実に公平な予測モデルを構築する手法を開発した。
本手法を実データ上で評価し,最先端技術の改善を実証する。
以上より,本手法による公平性の強制は,公平なだけでなく,対象人口においてより正確な予測モデルにつながる可能性が示唆された。
関連論文リスト
- Source-Free Domain-Invariant Performance Prediction [68.39031800809553]
本研究では,不確実性に基づく推定を主軸としたソースフリー手法を提案する。
オブジェクト認識データセットのベンチマーク実験により、既存のソースベースの手法は、限られたソースサンプルの可用性で不足していることが判明した。
提案手法は,現在の最先端のソースフリーおよびソースベース手法よりも優れており,ドメイン不変性能推定の有効性が確認されている。
論文 参考訳(メタデータ) (2024-08-05T03:18:58Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Balancing Unobserved Confounding with a Few Unbiased Ratings in Debiased
Recommendations [4.960902915238239]
本稿では,既存のデバイアス法に適用可能な理論的に保証されたモデル非依存バランス手法を提案する。
提案手法では, バイアスデータを用いて学習したモデルパラメータを補正し, バイアスデータのバランス係数を適応的に学習することで, バイアスデータを完全に活用する。
論文 参考訳(メタデータ) (2023-04-17T08:56:55Z) - Exploring validation metrics for offline model-based optimisation with
diffusion models [50.404829846182764]
モデルベース最適化(MBO)では、マシンラーニングを使用して、(基底真理)オラクルと呼ばれるブラックボックス関数に対する報酬の尺度を最大化する候補を設計することに興味があります。
モデル検証中に基底オラクルに対する近似をトレーニングし、その代わりに使用することができるが、その評価は近似的であり、敵の例に対して脆弱である。
本手法は,外挿量を測定するために提案した評価フレームワークにカプセル化されている。
論文 参考訳(メタデータ) (2022-11-19T16:57:37Z) - Data-SUITE: Data-centric identification of in-distribution incongruous
examples [81.21462458089142]
Data-SUITEは、ID(In-distriion)データの不連続領域を特定するためのデータ中心のフレームワークである。
我々は,Data-SUITEの性能保証とカバレッジ保証を実証的に検証する。
論文 参考訳(メタデータ) (2022-02-17T18:58:31Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Robust Fairness-aware Learning Under Sample Selection Bias [17.09665420515772]
サンプル選択バイアス下での頑健で公正な学習のための枠組みを提案する。
テストデータが利用可能で、利用できない場合に、サンプル選択バイアスを処理する2つのアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-05-24T23:23:36Z) - Training Deep Normalizing Flow Models in Highly Incomplete Data
Scenarios with Prior Regularization [13.985534521589257]
ハイパウシティシナリオにおけるデータ分布の学習を容易にする新しいフレームワークを提案する。
提案手法は,不完全データから学習過程を協調最適化タスクとして行うことに由来する。
論文 参考訳(メタデータ) (2021-04-03T20:57:57Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - Robust Validation: Confident Predictions Even When Distributions Shift [19.327409270934474]
本稿では,モデルが点予測ではなく,その予測に対して不確実な推定を行うような,頑健な予測推論の手順について述べる。
本稿では, トレーニング集団の周囲に$f$-divergence のボールを用いて, 任意のテスト分布に対して適切なカバレッジレベルを与える予測セットを生成する手法を提案する。
私たちの方法論の重要な構成要素は、将来のデータシフトの量を見積り、それに対する堅牢性を構築することです。
論文 参考訳(メタデータ) (2020-08-10T17:09:16Z) - Fairness by Explicability and Adversarial SHAP Learning [0.0]
本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
論文 参考訳(メタデータ) (2020-03-11T14:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。