論文の概要: Toward Unifying Group Fairness Evaluation from a Sparsity Perspective
- arxiv url: http://arxiv.org/abs/2511.00359v1
- Date: Sat, 01 Nov 2025 02:02:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.737684
- Title: Toward Unifying Group Fairness Evaluation from a Sparsity Perspective
- Title(参考訳): 空間的視点によるグループフェアネス評価の統一に向けて
- Authors: Zhecheng Sheng, Jiawei Zhang, Enmao Diao,
- Abstract要約: 本稿では,アルゴリズムの公平性を評価するための分散空間ベースのフレームワークを提案する。
このフレームワークは、既存の公正性基準と整合し、幅広い機械学習タスクに幅広い適用性を示す。
- 参考スコア(独自算出の注目度): 14.456880823997757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring algorithmic fairness remains a significant challenge in machine learning, particularly as models are increasingly applied across diverse domains. While numerous fairness criteria exist, they often lack generalizability across different machine learning problems. This paper examines the connections and differences among various sparsity measures in promoting fairness and proposes a unified sparsity-based framework for evaluating algorithmic fairness. The framework aligns with existing fairness criteria and demonstrates broad applicability to a wide range of machine learning tasks. We demonstrate the effectiveness of the proposed framework as an evaluation metric through extensive experiments on a variety of datasets and bias mitigation methods. This work provides a novel perspective to algorithmic fairness by framing it through the lens of sparsity and social equity, offering potential for broader impact on fairness research and applications.
- Abstract(参考訳): アルゴリズムの公正性の確保は、機械学習において重要な課題であり、特にモデルがさまざまな領域にまたがってますます適用されている。
多くの公平性基準が存在するが、それらは様々な機械学習問題にまたがる一般化性に欠けることが多い。
本稿では,公平性向上のための様々な疎度対策の相互関係と相違について検討し,アルゴリズム的公正性を評価するための統一された疎度に基づく枠組みを提案する。
このフレームワークは、既存の公正性基準と整合し、幅広い機械学習タスクに幅広い適用性を示す。
提案手法の有効性を評価指標として,各種データセットおよびバイアス緩和手法の広範な実験を通じて示す。
この研究は、公平さと社会的平等のレンズを通してそれをフレーミングすることで、公正さの研究と応用により大きな影響を与える可能性を提供することによって、アルゴリズムフェアネスに対する新たな視点を提供する。
関連論文リスト
- A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Increasing Fairness via Combination with Learning Guarantees [8.116369626226815]
本研究では,個人的,集団的公正性の両面を反映した「差別的リスク(DR)」という公平性評価尺度を提案する。
本研究では,その特性を調査し,理論学習保証と組み合わさることで,公正性を高めることができることを示す。
論文 参考訳(メタデータ) (2023-01-25T20:31:06Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。