論文の概要: FairRF: Multi-Objective Search for Single and Intersectional Software Fairness
- arxiv url: http://arxiv.org/abs/2601.07537v1
- Date: Mon, 12 Jan 2026 13:42:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.416918
- Title: FairRF: Multi-Objective Search for Single and Intersectional Software Fairness
- Title(参考訳): FairRF: シングルとインターセクションのソフトウェアフェアネスのための多目的検索
- Authors: Giordano d'Alosio, Max Hort, Rebecca Moussa, Federica Sarro,
- Abstract要約: 分類タスクにおける公平性と有効性を最適化するために,多目的進化探索に基づく新しいアプローチであるFairRFを導入する。
5つの有効度と3つの公正度測定値を用いて,FairRFを11のシナリオで26の異なるベースラインに対して広範囲に評価する。
- 参考スコア(独自算出の注目度): 6.155605380087007
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: The wide adoption of AI- and ML-based systems in sensitive domains raises severe concerns about their fairness. Many methods have been proposed in the literature to enhance software fairness. However, the majority behave as a black-box, not allowing stakeholders to prioritise fairness or effectiveness (i.e., prediction correctness) based on their needs. Aims: In this paper, we introduce FairRF, a novel approach based on multi-objective evolutionary search to optimise fairness and effectiveness in classification tasks. FairRF uses a Random Forest (RF) model as a base classifier and searches for the best hyperparameter configurations and data mutation to maximise fairness and effectiveness. Eventually, it returns a set of Pareto optimal solutions, allowing the final stakeholders to choose the best one based on their needs. Method: We conduct an extensive empirical evaluation of FairRF against 26 different baselines in 11 different scenarios using five effectiveness and three fairness metrics. Additionally, we also include two variations of the fairness metrics for intersectional bias for a total of six definitions analysed. Result: Our results show that FairRF can significantly improve the fairness of base classifiers, while maintaining consistent prediction effectiveness. Additionally, FairRF provides a more consistent optimisation under all fairness definitions compared to state-of-the-art bias mitigation methods and overcomes the existing state-of-the-art approach for intersectional bias mitigation. Conclusions: FairRF is an effective approach for bias mitigation also allowing stakeholders to adapt the development of fair software systems based on their specific needs.
- Abstract(参考訳): 背景: 機密ドメインにおけるAIおよびMLベースのシステムの普及は、その公正性に対する深刻な懸念を提起する。
ソフトウェアフェアネスを高めるための多くの手法が文献で提案されている。
しかし、大多数はブラックボックスとして振る舞うため、利害関係者が必要に応じて公正さや有効性(すなわち予測正しさ)を優先できない。
Aims: 本論文では,多目的進化探索に基づく新しい手法であるFairRFを紹介し,その妥当性と妥当性を最適化する。
FairRFはランダムフォレスト(RF)モデルをベース分類器として使用し、フェアネスと有効性を最大化するために最適なハイパーパラメータ構成とデータ変異を探索する。
最終的には、Paretoの最適ソリューションのセットを返します。
方法: 5つの有効度と3つの公正度測定値を用いて,26の異なる基準値に対してFairRFを広範囲に評価する。
さらに、分析した6つの定義に対する交差バイアスの公平度指標の2つのバリエーションも含んでいる。
結果:FairRFは,一貫した予測効率を維持しつつ,ベース分類器の公平性を大幅に向上できることを示した。
さらに、FairRFは、最先端バイアス緩和法と比較して、あらゆる公正定義の下でより一貫した最適化を提供し、既存の最先端バイアス緩和アプローチを克服する。
結論: FairRFはバイアス軽減のための効果的なアプローチであり、ステークホルダーが特定のニーズに基づいて公正なソフトウェアシステムの開発に適応できるようにする。
関連論文リスト
- APFEx: Adaptive Pareto Front Explorer for Intersectional Fairness [16.993547305381327]
本稿では,共同最適化問題として,交差フェアネスを明示的にモデル化する最初のフレームワークであるAPFExを紹介する。
APFExは、適応的な多目的性、勾配重み付け、探索戦略を組み合わせて、公正さと精度のトレードオフをナビゲートする。
4つの実世界のデータセットの実験は、APFExの優位性を示し、競争精度を維持しながら公正な違反を減らす。
論文 参考訳(メタデータ) (2025-09-17T11:13:22Z) - FedFACT: A Provable Framework for Controllable Group-Fairness Calibration in Federated Learning [23.38141950440522]
我々はFedFACTという制御可能なグループフェアネス校正フレームワークを提案する。
FedFACTは、大域的および局所的公正性の制約の下でベイズ最適分類器を識別する。
我々は,FedFACTが精度とグローバル・ローカル・フェアネスのバランスをとる上で,ベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2025-06-04T09:39:57Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Scaff-PD: Communication Efficient Fair and Robust Federated Learning [92.61502701658732]
Scaff-PDは、分散的堅牢なフェデレーション学習のための高速で通信効率のよいアルゴリズムである。
この結果から,Scaff-PDは資源制約や不均一な環境下でのフェデレーション学習において有望なアプローチであることが示唆された。
論文 参考訳(メタデータ) (2023-07-25T10:04:33Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Pareto Efficient Fairness in Supervised Learning: From Extraction to
Tracing [26.704236797908177]
アルゴリズムによる意思決定システムの普及が進んでいる。
測定と精度の本質的にのトレードオフのため、全体的な損失とその他の基準とのトレードオフを確保することが望ましい。
定義に依存しない、つまり、明確に定義された概念を PEF の概念に還元できることを意味する。
論文 参考訳(メタデータ) (2021-04-04T15:49:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。