論文の概要: Learning Fair Scoring Functions: Bipartite Ranking under ROC-based
Fairness Constraints
- arxiv url: http://arxiv.org/abs/2002.08159v4
- Date: Thu, 25 Feb 2021 18:54:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 13:09:41.067255
- Title: Learning Fair Scoring Functions: Bipartite Ranking under ROC-based
Fairness Constraints
- Title(参考訳): フェアスコーリング関数の学習:ROCに基づくフェアネス制約下での両部ランク付け
- Authors: Robin Vogel, Aur\'elien Bellet, and Stephan Cl\'emen\c{c}on
- Abstract要約: 2値ラベル付きデータからスコアリング関数を学習する際の公平性について検討する。
AUC と ROC 曲線に基づくフェアネス定義の一般族を紹介する。
このような制約の下で学習したスコアリング関数の有界一般化を確立する。
- 参考スコア(独自算出の注目度): 2.0263791972068628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many applications of AI involve scoring individuals using a learned function
of their attributes. These predictive risk scores are then used to take
decisions based on whether the score exceeds a certain threshold, which may
vary depending on the context. The level of delegation granted to such systems
in critical applications like credit lending and medical diagnosis will heavily
depend on how questions of fairness can be answered. In this paper, we study
fairness for the problem of learning scoring functions from binary labeled
data, a classic learning task known as bipartite ranking. We argue that the
functional nature of the ROC curve, the gold standard measure of ranking
accuracy in this context, leads to several ways of formulating fairness
constraints. We introduce general families of fairness definitions based on the
AUC and on ROC curves, and show that our ROC-based constraints can be
instantiated such that classifiers obtained by thresholding the scoring
function satisfy classification fairness for a desired range of thresholds. We
establish generalization bounds for scoring functions learned under such
constraints, design practical learning algorithms and show the relevance our
approach with numerical experiments on real and synthetic data.
- Abstract(参考訳): AIの多くの応用は、個々の属性の学習機能を使って個人を評価することである。
これらの予測リスクスコアは、そのスコアが特定のしきい値を超えたかどうかに基づいて決定される。
信用貸付や医療診断などの重要な応用において、そのようなシステムに付与される委譲のレベルは、公平性の疑問にどのように答えるかに大きく依存する。
本稿では,二部ランキングと呼ばれる古典的学習課題であるバイナリラベル付きデータからスコアリング関数を学習する問題に対する公平性について検討する。
この文脈におけるランク精度のゴールド標準尺度であるROC曲線の機能的性質は、公正性制約を定式化するいくつかの方法をもたらすと論じる。
本稿では, AUC と ROC 曲線に基づくフェアネス定義の一般族を導入し, 評価関数を閾値付けした分類器が所望の閾値範囲の分類フェアネスを満たすように, ROC に基づく制約をインスタンス化できることを示す。
このような制約下で学習したスコアリング関数の一般化境界を確立し、実用的な学習アルゴリズムを設計し、実データと合成データの数値実験によるアプローチの妥当性を示す。
関連論文リスト
- FLASK: Fine-grained Language Model Evaluation based on Alignment Skill
Sets [72.54255857335549]
FLASKは、人間に基づく評価とモデルに基づく評価の両方のためのきめ細かい評価プロトコルである。
モデル性能の全体像を得るためには,評価の微粒化が重要であることを実験的に観察する。
論文 参考訳(メタデータ) (2023-07-20T14:56:35Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Non-Asymptotic Performance of Social Machine Learning Under Limited Data [51.053285698685364]
本研究では,社会機械学習フレームワークに関連付けられた誤りの確率について検討する。
このフレームワークは、ラベルのないデータのストリームを分散的に分類する問題に対処する。
論文 参考訳(メタデータ) (2023-06-15T17:42:14Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - I Know Therefore I Score: Label-Free Crafting of Scoring Functions using
Constraints Based on Domain Expertise [6.26476800426345]
多次元数値データからスコアリング関数を学習するためのラベルなし実践的手法を提案する。
このアプローチでは、ドメインエキスパートの洞察とビジネスルールを、容易に観察可能で特定可能な制約という形で取り入れています。
このような制約を、スコアリング関数を学習しながら同時に最適化された損失関数に変換する。
論文 参考訳(メタデータ) (2022-03-18T17:51:20Z) - Fair Tree Learning [0.15229257192293202]
様々な最適化基準は、分類性能と公正度を組み合わせている。
現在の公正決定木法は、分類タスクと公正度測定の両方において、一定の閾値を最適化するのみである。
そこで本研究では,一様人口分布パリティと呼ばれるしきい値非依存の公平度尺度と,SCAFF – Splitting Criterion AUC for Fairnessと題する分割基準を提案する。
論文 参考訳(メタデータ) (2021-10-18T13:40:25Z) - Concentration Inequalities for Two-Sample Rank Processes with
Application to Bipartite Ranking [0.0]
ROC曲線は、テスト/スコアリング統計のパフォーマンスを測定するための金の標準です。
スコアリング/ランク付けアプリケーションで使用される実践的なパフォーマンス指標は、ROC曲線の要約と見なすことができる。
論文 参考訳(メタデータ) (2021-04-07T06:31:06Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Uncertainty-aware Score Distribution Learning for Action Quality
Assessment [91.05846506274881]
行動品質評価(AQA)のための不確実性認識スコア分布学習(USDL)手法を提案する。
具体的には、異なる評価スコアの確率を記述したスコア分布に関連する事例として、アクションを考察する。
微粒なスコアラベルが利用できる状況下では、多パス不確実性を考慮したスコア分布学習法(MUSDL)を考案し、スコアの不整合成分を探索する。
論文 参考訳(メタデータ) (2020-06-13T15:41:29Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Fairness by Explicability and Adversarial SHAP Learning [0.0]
本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
論文 参考訳(メタデータ) (2020-03-11T14:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。