論文の概要: Fairness-aware Model-agnostic Positive and Unlabeled Learning
- arxiv url: http://arxiv.org/abs/2206.09346v1
- Date: Sun, 19 Jun 2022 08:04:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 19:26:52.135473
- Title: Fairness-aware Model-agnostic Positive and Unlabeled Learning
- Title(参考訳): フェアネスを意識したモデルに依存しない肯定とラベルなし学習
- Authors: Ziwei Wu, Jingrui He
- Abstract要約: フェアプル(FairPUL)という,フェアネスを意識したポジティブ・アンラベル学習手法を提案する。
2つの集団の個体を二分分類するために、同様の正の率と偽の正の率を達成することを目指している。
我々のフレームワークは、分類誤差と公正度の両方の観点から統計的に一貫性があることが証明されている。
- 参考スコア(独自算出の注目度): 38.50536380390474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing application of machine learning in high-stake
decision-making problems, potential algorithmic bias towards people from
certain social groups poses negative impacts on individuals and our society at
large. In the real-world scenario, many such problems involve positive and
unlabeled data such as medical diagnosis, criminal risk assessment and
recommender systems. For instance, in medical diagnosis, only the diagnosed
diseases will be recorded (positive) while others will not (unlabeled). Despite
the large amount of existing work on fairness-aware machine learning in the
(semi-)supervised and unsupervised settings, the fairness issue is largely
under-explored in the aforementioned Positive and Unlabeled Learning (PUL)
context, where it is usually more severe. In this paper, to alleviate this
tension, we propose a fairness-aware PUL method named FairPUL. In particular,
for binary classification over individuals from two populations, we aim to
achieve similar true positive rates and false positive rates in both
populations as our fairness metric. Based on the analysis of the optimal fair
classifier for PUL, we design a model-agnostic post-processing framework,
leveraging both the positive examples and unlabeled ones. Our framework is
proven to be statistically consistent in terms of both the classification error
and the fairness metric. Experiments on the synthetic and real-world data sets
demonstrate that our framework outperforms state-of-the-art in both PUL and
fair classification.
- Abstract(参考訳): 高度な意思決定問題における機械学習の応用が増加する中、特定の社会集団の人々に対する潜在的なアルゴリズムバイアスは、個人や社会全体に悪影響を及ぼす。
現実のシナリオでは、医療診断、犯罪リスク評価、レコメンダシステムなど、ポジティブでラベルのないデータを含む多くの問題が発生する。
例えば、診断では、診断された疾患のみが記録される(陽性)が、他の疾患は記録されない(ラベルなし)。
フェアネスを意識した機械学習が(半教師付きで教師なしの)設定で数多く行われているにもかかわらず、フェアネス問題は前述のPUL(Positive and Unlabeled Learning)の文脈ではほとんど探索されていない。
本稿では,この緊張を軽減するためにFairPULというフェアネス対応PUL法を提案する。
特に,2つの集団の個体に対する二進分類では,同一の真正率と偽陽性率を公平度指標として達成することを目指している。
PULの最適フェア分類器の解析に基づいて,モデルに依存しない後処理フレームワークを設計し,正の例と未ラベルの例の両方を活用する。
我々の枠組みは分類誤差と公平度指標の両方の観点から統計的に一貫性があることが証明されている。
合成および実世界のデータセットの実験により、我々のフレームワークはPULと公正な分類の両方において最先端であることを示した。
関連論文リスト
- Fairness-enhancing mixed effects deep learning improves fairness on in- and out-of-distribution clustered (non-iid) data [6.596656267996196]
フェア・ミックスド・エフェクト・ディープ・ラーニング(Fair MEDL)フレームワークを紹介する。
Fair MEDLは、クラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を定量化する
敵の偏見を取り入れて、平等化オッド、デモグラフィックパリティ、カウンターファクトフェアネスの3つの主要な指標の公平性を促進する。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - Blackbox Post-Processing for Multiclass Fairness [1.5305403478254664]
我々は,マルチクラス設定における公平性を達成するため,ブラックボックス機械学習分類器の予測を変更することを検討する。
我々は,系統的な合成実験を通じて,公正かつ正確な予測を行う方法を探究する。
全体として、我々の手法は精度の小さな低下を生じさせ、データセットの個体数が高い場合に公平さを強制する。
論文 参考訳(メタデータ) (2022-01-12T13:21:20Z) - Fairness-aware Class Imbalanced Learning [57.45784950421179]
つぶやきの感情と職業分類のロングテール学習手法を評価する。
フェアネスを強制する手法により、マージンロスに基づくアプローチを拡張します。
論文 参考訳(メタデータ) (2021-09-21T22:16:30Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Recovering from Biased Data: Can Fairness Constraints Improve Accuracy? [11.435833538081557]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、バイアスがあるだけでなく、真のデータ分布に最適な精度を持つ分類器を生成する。
公平性に制約されたERMによるこの問題の是正能力について検討する。
また、トレーニングデータの再重み付け、等化オッド、復号化パリティなど、他のリカバリ手法についても検討する。
論文 参考訳(メタデータ) (2019-12-02T22:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。