論文の概要: Facets of Disparate Impact: Evaluating Legally Consistent Bias in Machine Learning
- arxiv url: http://arxiv.org/abs/2505.05471v1
- Date: Thu, 08 May 2025 17:58:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.99789
- Title: Facets of Disparate Impact: Evaluating Legally Consistent Bias in Machine Learning
- Title(参考訳): 異なる影響の面:機械学習における法的に一貫性のあるバイアスの評価
- Authors: Jarren Briscoe, Assefaw Gebremedhin,
- Abstract要約: 現行の法的な基準を用いて、限界的な利益と客観的なテストのレンズを通してバイアスを定義します。
この指標は客観的テストの文脈的ニュアンスとメートル法的安定性を組み合わせ、法的に一貫した信頼性のある尺度を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Leveraging current legal standards, we define bias through the lens of marginal benefits and objective testing with the novel metric "Objective Fairness Index". This index combines the contextual nuances of objective testing with metric stability, providing a legally consistent and reliable measure. Utilizing the Objective Fairness Index, we provide fresh insights into sensitive machine learning applications, such as COMPAS (recidivism prediction), highlighting the metric's practical and theoretical significance. The Objective Fairness Index allows one to differentiate between discriminatory tests and systemic disparities.
- Abstract(参考訳): 現行の法定基準を活用して,新たな指標である「客観的公正指数」を用いて,限界利得と客観的テストのレンズを通じてバイアスを定義する。
この指標は客観的テストの文脈的ニュアンスとメートル法的安定性を組み合わせ、法的に一貫した信頼性のある尺度を提供する。
客観的公正指数(Objective Fairness Index)を用いることで、CompAS(Recidivism Prediction)のようなセンシティブな機械学習アプリケーションに対する新たな洞察を提供する。
客観的公正指数(Objective Fairness Index)は、差別テストとシステム格差を区別する。
関連論文リスト
- Revisiting LLM Evaluation through Mechanism Interpretability: a New Metric and Model Utility Law [99.56567010306807]
大規模言語モデル(LLM)は、学術、産業、そして日々のアプリケーションに欠かせないものになっている。
本稿では,従来の性能指標を補完する機構解釈可能性技術を導入し,モデル利用指標(MUI)を提案する。
論文 参考訳(メタデータ) (2025-04-10T04:09:47Z) - The Fragility of Fairness: Causal Sensitivity Analysis for Fair Machine Learning [34.50562695587344]
因果感度分析のツールをFairMLコンテキストに適用する。
本稿では,最も一般的なパリティ指標の感度を3種類の分類器で解析する。
因果感度分析は、パリティ計量評価の有意性を高めるために強力で必要なツールキットを提供することを示す。
論文 参考訳(メタデータ) (2024-10-12T17:28:49Z) - Goodhart's Law Applies to NLP's Explanation Benchmarks [57.26445915212884]
ERASER(Comprehensiveness and sufficiency)メトリクスとEVAL-X(EVAL-X)メトリクスの2つのセットを批判的に検討する。
実験結果の予測や説明を変えることなく,モデル全体の包括性と充足率を劇的に向上させることができることを示す。
我々の結果は、現在のメトリクスが説明可能性の研究をガイドする能力に疑問を呈し、これらのメトリクスが正確に捉えるものを再評価する必要性を強調します。
論文 参考訳(メタデータ) (2023-08-28T03:03:03Z) - Towards Better Fairness-Utility Trade-off: A Comprehensive
Measurement-Based Reinforcement Learning Framework [7.8940121707748245]
ユーティリティを維持しながら、機械学習の公平性を確実にする方法は、難しいが重要な問題である。
本稿では,強化学習に基づくフレームワークであるCFU(Comprehensive Fairness-Utility)を提案する。
CFUは最先端の技術をすべて上回り、平均37.5%の改善が見られた。
論文 参考訳(メタデータ) (2023-07-21T06:34:41Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Conditional Supervised Contrastive Learning for Fair Text Classification [59.813422435604025]
対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
具体的には、まず、公正性制約のある学習表現と条件付き教師付きコントラスト目的との間の関係を理論的に分析する。
論文 参考訳(メタデータ) (2022-05-23T17:38:30Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fair Tree Learning [0.15229257192293202]
様々な最適化基準は、分類性能と公正度を組み合わせている。
現在の公正決定木法は、分類タスクと公正度測定の両方において、一定の閾値を最適化するのみである。
そこで本研究では,一様人口分布パリティと呼ばれるしきい値非依存の公平度尺度と,SCAFF – Splitting Criterion AUC for Fairnessと題する分割基準を提案する。
論文 参考訳(メタデータ) (2021-10-18T13:40:25Z) - GO FIGURE: A Meta Evaluation of Factuality in Summarization [131.1087461486504]
本稿では,現実性評価指標を評価するメタ評価フレームワークGO FIGUREを紹介する。
10個の実測値のベンチマーク分析により、我々のフレームワークが堅牢で効率的な評価を提供することが明らかとなった。
また、QAメトリクスは、ドメイン間の事実性を測定する標準的なメトリクスよりも一般的に改善されているが、パフォーマンスは、質問を生成する方法に大きく依存していることも明らかにしている。
論文 参考訳(メタデータ) (2020-10-24T08:30:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。