論文の概要: Individual Fairness under Uncertainty
- arxiv url: http://arxiv.org/abs/2302.08015v2
- Date: Mon, 11 Dec 2023 18:07:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 22:55:08.980172
- Title: Individual Fairness under Uncertainty
- Title(参考訳): 不確かさの下での個性
- Authors: Wenbin Zhang, Zichong Wang, Juyong Kim, Cheng Cheng, Thomas Oommen,
Pradeep Ravikumar, and Jeremy Weiss
- Abstract要約: アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
- 参考スコア(独自算出の注目度): 26.183244654397477
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Algorithmic fairness, the research field of making machine learning (ML)
algorithms fair, is an established area in ML. As ML technologies expand their
application domains, including ones with high societal impact, it becomes
essential to take fairness into consideration during the building of ML
systems. Yet, despite its wide range of socially sensitive applications, most
work treats the issue of algorithmic bias as an intrinsic property of
supervised learning, i.e., the class label is given as a precondition. Unlike
prior studies in fairness, we propose an individual fairness measure and a
corresponding algorithm that deal with the challenges of uncertainty arising
from censorship in class labels, while enforcing similar individuals to be
treated similarly from a ranking perspective, free of the Lipschitz condition
in the conventional individual fairness definition. We argue that this
perspective represents a more realistic model of fairness research for
real-world application deployment and show how learning with such a relaxed
precondition draws new insights that better explains algorithmic fairness. We
conducted experiments on four real-world datasets to evaluate our proposed
method compared to other fairness models, demonstrating its superiority in
minimizing discrimination while maintaining predictive performance with
uncertainty present.
- Abstract(参考訳): 機械学習(ML)アルゴリズムを公平にするための研究分野であるアルゴリズムフェアネスは、MLにおいて確立された領域である。
ML技術が社会的影響の高いものを含むアプリケーション領域を拡大するにつれ、MLシステムの構築において公平性を考慮することが不可欠となる。
しかし、その幅広い社会的に敏感な応用にもかかわらず、ほとんどの研究はアルゴリズムバイアスの問題を教師付き学習の本質的な性質として扱い、すなわち、クラスラベルは前提条件として与えられる。
公平性に関する先行研究とは異なり、クラスラベルにおける検閲から生じる不確実性の問題に対処する個別公平性尺度とそれに対応するアルゴリズムを提案し、従来の個別公平性定義におけるリプシッツ条件によらず、ランク付けの観点からも同様に扱うべき類似の個人を強制する。
この視点は、現実世界のアプリケーション展開のための公平性研究のより現実的なモデルであり、そのような緩和された前提条件で学習がどのようにアルゴリズム的公平性を説明する新しい洞察を引き出すかを示す。
提案手法を他のフェアネスモデルと比較して評価するために,4つの実世界のデータセットを用いて実験を行った。
関連論文リスト
- Fairness Evaluation with Item Response Theory [10.871079276188649]
本稿では機械学習(ML)モデルにおける公平性を評価するための新しいFair-IRTフレームワークを提案する。
項目特性曲線(ICC)の詳細な説明は、特定の個人に対して提供される。
公平性評価ツールとしてのこのフレームワークの有効性を実証する実験を行った。
論文 参考訳(メタデータ) (2024-10-20T22:25:20Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fair Inference for Discrete Latent Variable Models [12.558187319452657]
デュエルケアなしでデータに基づいて訓練された機械学習モデルは、特定の人口に対して不公平で差別的な行動を示すことが多い。
本研究では,変動分布に公平なペナルティを含む離散潜伏変数に対して,公平な変分推論手法を開発した。
提案手法の一般化と実世界への影響の可能性を示すため,刑事司法リスク評価のための特別目的グラフィカルモデルを構築した。
論文 参考訳(メタデータ) (2022-09-15T04:54:21Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - All of the Fairness for Edge Prediction with Optimal Transport [11.51786288978429]
グラフにおけるエッジ予測の課題に対する公平性の問題について検討する。
本稿では,任意のグラフの隣接行列に対して,グループと個々の公正性のトレードオフを伴う埋め込み非依存の補修手順を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:33:13Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。