論文の概要: Safe Fairness Guarantees Without Demographics in Classification: Spectral Uncertainty Set Perspective
- arxiv url: http://arxiv.org/abs/2602.11785v1
- Date: Thu, 12 Feb 2026 10:08:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.760984
- Title: Safe Fairness Guarantees Without Demographics in Classification: Spectral Uncertainty Set Perspective
- Title(参考訳): 分類におけるデモグラフィーなしの安全フェアネス保証:スペクトル不確実性設定の観点から
- Authors: Ainhize Barrainkua, Santiago Mazuelas, Novi Quadrianto, Jose A. Lozano,
- Abstract要約: SPECTREは、単純なフーリエ特徴写像のスペクトルを調整し、最悪のケース分布が経験的分布から逸脱する程度を制約するミニマックスフェア法である。
フェアネス保証に関する最も高い平均値と、最先端のアプローチと比較して最小のクォータタイル範囲を提供する。
- 参考スコア(独自算出の注目度): 9.149827831925185
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As automated classification systems become increasingly prevalent, concerns have emerged over their potential to reinforce and amplify existing societal biases. In the light of this issue, many methods have been proposed to enhance the fairness guarantees of classifiers. Most of the existing interventions assume access to group information for all instances, a requirement rarely met in practice. Fairness without access to demographic information has often been approached through robust optimization techniques,which target worst-case outcomes over a set of plausible distributions known as the uncertainty set. However, their effectiveness is strongly influenced by the chosen uncertainty set. In fact, existing approaches often overemphasize outliers or overly pessimistic scenarios, compromising both overall performance and fairness. To overcome these limitations, we introduce SPECTRE, a minimax-fair method that adjusts the spectrum of a simple Fourier feature mapping and constrains the extent to which the worst-case distribution can deviate from the empirical distribution. We perform extensive experiments on the American Community Survey datasets involving 20 states. The safeness of SPECTRE comes as it provides the highest average values on fairness guarantees together with the smallest interquartile range in comparison to state-of-the-art approaches, even compared to those with access to demographic group information. In addition, we provide a theoretical analysis that derives computable bounds on the worst-case error for both individual groups and the overall population, as well as characterizes the worst-case distributions responsible for these extremal performances
- Abstract(参考訳): 自動分類システムがますます普及するにつれて、既存の社会的偏見を補強し増幅する可能性に対する懸念が高まっている。
この問題を踏まえ、分類器の公平性を保証するために多くの方法が提案されている。
既存の介入のほとんどは、すべてのインスタンスのグループ情報へのアクセスを前提としています。
人口統計情報にアクセスできない公平性は、しばしば堅牢な最適化手法によってアプローチされてきた。
しかし、その効果は選択された不確実性集合に強く影響される。
実際、既存のアプローチは、アウトレーヤや過度に悲観的なシナリオを過度に強調し、全体的なパフォーマンスと公平性の両方を妥協します。
これらの制限を克服するために,単純なフーリエ特徴写像のスペクトルを調整し,最悪のケース分布が経験的分布から逸脱する程度を制約するミニマックスフェア法であるSPECTREを導入する。
我々は、20の州を含むアメリカン・コミュニティ・サーベイのデータセットについて広範な実験を行った。
SPECTREの安全性は、人口統計学的グループ情報へのアクセスでさえも、最先端のアプローチと比較して、フェアネス保証に関する最高平均値と、最小の異種間範囲を提供するためである。
さらに、各グループと集団の最悪のケースエラーの計算可能な境界を導出する理論解析を行い、これらの極端性能に責任のある最悪のケース分布を特徴づける。
関連論文リスト
- Empirical Likelihood-Based Fairness Auditing: Distribution-Free Certification and Flagging [18.71249153088185]
リシビズム予測や人事自動選択といった高度な応用における機械学習モデルは、しばしば体系的な性能格差を示す。
本稿では,モデル性能の相違に対する頑健な統計的尺度を構築するための実験的可能性ベース(EL)フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-28T05:36:19Z) - The Statistical Fairness-Accuracy Frontier [50.323024516295725]
機械学習モデルは正確性と公平さのバランスをとる必要があるが、これらの目標はしばしば矛盾する。
このトレードオフを理解するための有用なツールとしてフェアネス・精度フロンティアがあり、フェアネスと精度の両方で同時に改善できないモデルの集合を特徴付ける。
本研究では, 有限サンプル体制におけるFAフロンティアについて検討し, 人口の減少と, 最悪のケースギャップの定量化について検討した。
論文 参考訳(メタデータ) (2025-08-25T03:01:35Z) - Fairness-aware Anomaly Detection via Fair Projection [24.68178499460169]
教師なしの異常検出は、金融、医療、ソーシャルメディア、サイバーセキュリティなどの社会的影響の高いアプリケーションにおいて重要である。
これらのシナリオでは、異常検出システムからのバイアスの可能性は、異なるグループに対して不公平な扱いをし、さらに社会的バイアスを悪化させる可能性がある。
フェアネスを意識した新しい異常検出法であるFairADを提案する。
論文 参考訳(メタデータ) (2025-05-16T11:26:00Z) - Noise-Adaptive Conformal Classification with Marginal Coverage [53.74125453366155]
本稿では,ランダムラベルノイズによる交換性からの偏差を効率的に処理できる適応型共形推論手法を提案する。
本手法は,合成および実データに対して,その有効性を示す広範囲な数値実験により検証する。
論文 参考訳(メタデータ) (2025-01-29T23:55:23Z) - Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Federated Fairness without Access to Sensitive Groups [12.888927461513472]
連合学習におけるグループフェアネスへの現在のアプローチは、トレーニング中に事前に定義されラベル付けされたセンシティブなグループが存在することを前提としている。
我々は、センシティブなグループや追加のラベルの事前定義された定義に依存しないグループフェアネスを保証するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-22T19:24:59Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。