論文の概要: fairmetrics: An R package for group fairness evaluation
- arxiv url: http://arxiv.org/abs/2506.06243v1
- Date: Fri, 06 Jun 2025 17:07:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.563848
- Title: fairmetrics: An R package for group fairness evaluation
- Title(参考訳): Fairmetrics: グループフェアネス評価のためのRパッケージ
- Authors: Benjamin Smith, Jianhui Gao, Jessica Gronsbell,
- Abstract要約: Fairmetrics Rパッケージは、グループベースのフェアネス基準を厳格に評価するための、ユーザフレンドリなフレームワークを提供する。
群に基づく公平度基準は、あるモデルが一組の事前定義されたグループに対して等しく正確であるか、あるいは適切に校正されているかを評価する。
Fairmetricsは、便利なラッパー関数を通じて、複数のメトリクスに対してポイントとインターバルの見積もりを提供する。
- 参考スコア(独自算出の注目度): 0.40964539027092906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness is a growing area of machine learning (ML) that focuses on ensuring models do not produce systematically biased outcomes for specific groups, particularly those defined by protected attributes such as race, gender, or age. Evaluating fairness is a critical aspect of ML model development, as biased models can perpetuate structural inequalities. The {fairmetrics} R package offers a user-friendly framework for rigorously evaluating numerous group-based fairness criteria, including metrics based on independence (e.g., statistical parity), separation (e.g., equalized odds), and sufficiency (e.g., predictive parity). Group-based fairness criteria assess whether a model is equally accurate or well-calibrated across a set of predefined groups so that appropriate bias mitigation strategies can be implemented. {fairmetrics} provides both point and interval estimates for multiple metrics through a convenient wrapper function and includes an example dataset derived from the Medical Information Mart for Intensive Care, version II (MIMIC-II) database (Goldberger et al., 2000; Raffa, 2016).
- Abstract(参考訳): フェアネス(英: Fairness)とは、機械学習(ML)の分野であり、特定のグループ、特に人種、性別、年齢などの保護された属性によって定義される結果に対して、モデルが体系的に偏った結果を生み出しないことを保証することに焦点を当てている。
公平性を評価することはMLモデル開発において重要な側面であり、バイアス付きモデルは構造的不等式を永続させることができる。
Fairmetrics} Rパッケージは、独立性(統計パリティ)、分離性(eg、等化オッズ)、充足性(eg、予測パリティ)に基づくメトリクスを含む、多数のグループベースのフェアネス基準を厳格に評価するための、ユーザフレンドリーなフレームワークを提供する。
群に基づく公平度基準は、モデルが一組の事前定義されたグループで等しく正確であるか、あるいは適切に校正されているかを評価し、適切なバイアス緩和戦略を実施できる。
fairmetrics}は、便利なラッパー機能を通じて、複数のメトリクスのポイントとインターバルの見積もりを提供し、集中治療のための医療情報マート(MIMIC-II)データベース(Goldberger et al , 2000; Raffa, 2016)から派生したサンプルデータセットを含む。
関連論文リスト
- Quantifying Query Fairness Under Unawareness [82.33181164973365]
本稿では,二項分類を超えた複数の機密属性を効果的に処理する定量化に基づく頑健な公正度推定手法を提案する。
提案手法は, 様々な属性にまたがる既存のベースラインよりも優れており, 未知の公正度を測定するための信頼性の高いプロトコルを最初に確立した。
論文 参考訳(メタデータ) (2025-06-04T16:31:44Z) - Is Your Model Fairly Certain? Uncertainty-Aware Fairness Evaluation for LLMs [7.197702136906138]
モデルフェアネスのきめ細かい評価を可能にするため,不確実性を考慮した評価基準であるUCerFを提案する。
現在のデータセットにおけるデータサイズ、多様性、明快さの問題を観察し、新しいジェンダー占有公正度評価データセットを導入する。
我々は、メトリックとデータセットを使用してベンチマークを確立し、それを10のオープンソースAIシステムの動作評価に適用する。
論文 参考訳(メタデータ) (2025-05-29T20:45:18Z) - Looking Beyond What You See: An Empirical Analysis on Subgroup Intersectional Fairness for Multi-label Chest X-ray Classification Using Social Determinants of Racial Health Inequities [4.351859373879489]
ディープラーニングモデルにおける継承バイアスは、保護されたグループ間での予測精度の相違につながる可能性がある。
本稿では,正確な診断結果を達成し,交差点群間の公平性を確保するための枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-27T02:13:20Z) - A structured regression approach for evaluating model performance across intersectional subgroups [53.91682617836498]
分散評価(disaggregated evaluation)は、AIフェアネスアセスメントにおける中心的なタスクであり、AIシステムのさまざまなサブグループ間でのパフォーマンスを測定することを目的としている。
非常に小さなサブグループであっても,信頼性の高いシステム性能推定値が得られることを示す。
論文 参考訳(メタデータ) (2024-01-26T14:21:45Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - The Unbearable Weight of Massive Privilege: Revisiting Bias-Variance
Trade-Offs in the Context of Fair Prediction [7.975779552420981]
単一モデルによるトレードオフを改善することを目的とした条件付きid(ciid)モデルを提案する。
我々は、CompASおよびフォークテーブルデータセット上で、我々の設定を実証的にテストする。
分析の結果,条件付きモデルが好まれる原則的手順や具体的な実世界のユースケースが存在する可能性が示唆された。
論文 参考訳(メタデータ) (2023-02-17T05:34:35Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Fairness by Explicability and Adversarial SHAP Learning [0.0]
本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
論文 参考訳(メタデータ) (2020-03-11T14:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。