論文の概要: Revisiting Pre-processing Group Fairness: A Modular Benchmarking Framework
- arxiv url: http://arxiv.org/abs/2508.15193v1
- Date: Thu, 21 Aug 2025 03:04:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.158676
- Title: Revisiting Pre-processing Group Fairness: A Modular Benchmarking Framework
- Title(参考訳): 事前処理グループフェアネスを再考する: モジュール型ベンチマークフレームワーク
- Authors: Brodie Oldfield, Ziqi Xu, Sevvandi Kandanaarachchi,
- Abstract要約: バイアスを軽減する方法は、前処理、内処理、後処理の3つのカテゴリに分類される。
FairPrepは、データセット上でフェアネスを意識した事前処理技術を評価するために設計されたベンチマークフレームワークである。
- 参考スコア(独自算出の注目度): 3.035039100561926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning systems become increasingly integrated into high-stakes decision-making processes, ensuring fairness in algorithmic outcomes has become a critical concern. Methods to mitigate bias typically fall into three categories: pre-processing, in-processing, and post-processing. While significant attention has been devoted to the latter two, pre-processing methods, which operate at the data level and offer advantages such as model-agnosticism and improved privacy compliance, have received comparatively less focus and lack standardised evaluation tools. In this work, we introduce FairPrep, an extensible and modular benchmarking framework designed to evaluate fairness-aware pre-processing techniques on tabular datasets. Built on the AIF360 platform, FairPrep allows seamless integration of datasets, fairness interventions, and predictive models. It features a batch-processing interface that enables efficient experimentation and automatic reporting of fairness and utility metrics. By offering standardised pipelines and supporting reproducible evaluations, FairPrep fills a critical gap in the fairness benchmarking landscape and provides a practical foundation for advancing data-level fairness research.
- Abstract(参考訳): 機械学習システムがハイテイクな意思決定プロセスに統合されるにつれて、アルゴリズムによる結果の公平性を保証することが重要な関心事となっている。
バイアスを軽減する方法は通常、前処理、内処理、後処理の3つのカテゴリに分類される。
後者の2つには大きな注目が寄せられているが、データレベルで動作し、モデル非依存やプライバシーコンプライアンスの改善といった利点を提供する前処理手法は、比較的焦点が低く、標準化された評価ツールが欠如している。
本研究では,表付きデータセット上での公平性を考慮した事前処理技術の評価を目的とした,拡張性のあるモジュール型ベンチマークフレームワークであるFairPrepを紹介する。
AIF360プラットフォーム上に構築されたFairPrepは、データセット、公正な介入、予測モデルのシームレスな統合を可能にする。
フェアネスとユーティリティメトリクスの効率的な実験と自動レポートを可能にするバッチ処理インターフェースを備えている。
標準化されたパイプラインを提供し、再現可能な評価をサポートすることにより、FairPrepはフェアネスベンチマークのランドスケープにおける重要なギャップを埋め、データレベルのフェアネス研究を進めるための実践的な基盤を提供する。
関連論文リスト
- General Post-Processing Framework for Fairness Adjustment of Machine Learning Models [0.0]
本稿では,多様な機械学習タスクに適用可能な公平度調整のための新しいフレームワークを提案する。
モデルトレーニングプロセスから公平性調整を分離することにより、我々のフレームワークは平均的なモデル性能を保ちます。
提案手法の有効性をAdversarial Debiasingと比較し,本フレームワークが実世界のデータセットに対して同等の公平さ/精度のトレードオフを実現することを示す。
論文 参考訳(メタデータ) (2025-04-22T20:06:59Z) - Data Preparation for Fairness-Performance Trade-Offs: A Practitioner-Friendly Alternative? [11.172805305320592]
トレーニング前のバイアスを軽減する前処理技術は効果的だが、モデルの性能に影響を与え、統合が困難になる可能性がある。
本報告では,MLライフサイクルの初期段階において,最適に選択されたフェアネス・アウェアの実践が,フェアネスとパフォーマンスの両面でいかに向上するかを実証的に評価する。
FATEを用いてフェアネスとパフォーマンスのトレードオフを分析し、FATEが選択したパイプラインと、前処理のバイアス緩和技術による結果を比較する。
論文 参考訳(メタデータ) (2024-12-20T14:12:39Z) - FRAPPE: A Group Fairness Framework for Post-Processing Everything [48.57876348370417]
本稿では,任意の正規化インプロセッシング手法をポストプロセッシング手法に変換するフレームワークを提案する。
理論的および実験を通して、我々のフレームワークは、内部処理で達成された優れた公正なエラートレードオフを保っていることを示す。
論文 参考訳(メタデータ) (2023-12-05T09:09:21Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Improving Fair Training under Correlation Shifts [33.385118640843416]
特にラベルとセンシティブなグループ間のバイアスが変化すると、トレーニングされたモデルの公平性に直接影響し、悪化する可能性がある。
既存のプロセス内フェアアルゴリズムは、精度とグループフェアネスに根本的な限界があることを解析的に示す。
相関シフトを減らすために入力データをサンプリングする新しい前処理ステップを提案する。
論文 参考訳(メタデータ) (2023-02-05T07:23:35Z) - An Operational Perspective to Fairness Interventions: Where and How to
Intervene [9.833760837977222]
フェアネス介入の評価と文脈化のための包括的枠組みを提案する。
予測パリティに関するケーススタディで、我々のフレームワークを実証する。
グループデータを使わずに予測パリティを実現することは困難である。
論文 参考訳(メタデータ) (2023-02-03T07:04:33Z) - fairlib: A Unified Framework for Assessing and Improving Classification
Fairness [66.27822109651757]
Fairlibは、分類の公平さを評価し改善するためのオープンソースのフレームワークである。
我々は、前処理、訓練時間、後処理を含む14のデバイアス化手法を実装した。
組み込まれたメトリクスは、最も一般的に使用されるフェアネス基準をカバーし、フェアネス評価のためにさらに一般化およびカスタマイズすることができる。
論文 参考訳(メタデータ) (2022-05-04T03:50:23Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。