論文の概要: Intersectional Fairness via Mixed-Integer Optimization
- arxiv url: http://arxiv.org/abs/2601.19595v1
- Date: Tue, 27 Jan 2026 13:29:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.330746
- Title: Intersectional Fairness via Mixed-Integer Optimization
- Title(参考訳): 混合整数最適化による断面フェアネス
- Authors: Jiří Němeček, Mark Kozdoba, Illia Kryvoviaz, Tomáš Pevný, Jakub Mareček,
- Abstract要約: 真の公正性は、保護されたグループの交差点におけるバイアスに対処する必要があると我々は主張する。
本研究では,Mixed-Integer Optimization (MIO) を利用して,相互に公平かつ本質的に解釈可能な分類器を訓練する統合フレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.664154603948153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The deployment of Artificial Intelligence in high-risk domains, such as finance and healthcare, necessitates models that are both fair and transparent. While regulatory frameworks, including the EU's AI Act, mandate bias mitigation, they are deliberately vague about the definition of bias. In line with existing research, we argue that true fairness requires addressing bias at the intersections of protected groups. We propose a unified framework that leverages Mixed-Integer Optimization (MIO) to train intersectionally fair and intrinsically interpretable classifiers. We prove the equivalence of two measures of intersectional fairness (MSD and SPSF) in detecting the most unfair subgroup and empirically demonstrate that our MIO-based algorithm improves performance in finding bias. We train high-performing, interpretable classifiers that bound intersectional bias below an acceptable threshold, offering a robust solution for regulated industries and beyond.
- Abstract(参考訳): 金融や医療といったリスクの高い領域に人工知能を配置するには、公正かつ透明なモデルが必要である。
EUのAI法を含む規制の枠組みはバイアス緩和を義務付けるが、バイアスの定義については意図的に曖昧である。
既存の研究では、真の公正性は保護されたグループの交差点におけるバイアスに対処する必要があると論じている。
本研究では,Mixed-Integer Optimization (MIO) を利用して,相互に公平かつ本質的に解釈可能な分類器を訓練する統合フレームワークを提案する。
我々は,最も不公平な部分群の検出における2つの交差公正度(MSDとSPSF)の等価性を証明し,MIOに基づくアルゴリズムがバイアス検出の性能を向上させることを実証した。
我々は、許容範囲以下で交差バイアスを束縛する高い性能の解釈可能な分類器を訓練し、規制産業などに対する堅牢なソリューションを提供する。
関連論文リスト
- Fairness-Aware Reinforcement Learning (FAReL): A Framework for Transparent and Balanced Sequential Decision-Making [41.53741129864172]
実世界のシーケンシャルな決定問題の等価性は、公平性を意識した方法で実施することができる。
複数のトレードオフを探索できるフレームワークを提案する。
フレームワークは複数のシナリオでより公平なポリシーを学習し、パフォーマンスの報酬をわずかに損なうだけであることを示す。
論文 参考訳(メタデータ) (2025-09-26T11:42:14Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [91.86718720024825]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Beyond Incompatibility: Trade-offs between Mutually Exclusive Fairness Criteria in Machine Learning and Law [2.959308758321417]
本稿では,3つのフェアネス基準を連続的に補間する新しいアルゴリズム(FAir Interpolation Method: FAIM)を提案する。
我々は,合成データ,CompASデータセット,電子商取引部門による新たな実世界のデータセットに適用した場合のアルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-01T12:47:54Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。