論文の概要: Simple and Effective Specialized Representations for Fair Classifiers
- arxiv url: http://arxiv.org/abs/2505.11740v1
- Date: Fri, 16 May 2025 22:59:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.815952
- Title: Simple and Effective Specialized Representations for Fair Classifiers
- Title(参考訳): 公平な分類のためのシンプルで効果的な特殊化表現
- Authors: Alberto Sinigaglia, Davide Sartor, Marina Ceccon, Gian Antonio Susto,
- Abstract要約: 本稿では,特徴関数距離に基づく公平な分類手法を提案する。
特徴関数を利用することで,従来の手法に比べて安定で効率的な解が得られる。
本手法はロバスト性および計算効率を保ち,実世界の応用のための実用的な解法である。
- 参考スコア(独自算出の注目度): 4.264842065153012
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fair classification is a critical challenge that has gained increasing importance due to international regulations and its growing use in high-stakes decision-making settings. Existing methods often rely on adversarial learning or distribution matching across sensitive groups; however, adversarial learning can be unstable, and distribution matching can be computationally intensive. To address these limitations, we propose a novel approach based on the characteristic function distance. Our method ensures that the learned representation contains minimal sensitive information while maintaining high effectiveness for downstream tasks. By utilizing characteristic functions, we achieve a more stable and efficient solution compared to traditional methods. Additionally, we introduce a simple relaxation of the objective function that guarantees fairness in common classification models with no performance degradation. Experimental results on benchmark datasets demonstrate that our approach consistently matches or achieves better fairness and predictive accuracy than existing methods. Moreover, our method maintains robustness and computational efficiency, making it a practical solution for real-world applications.
- Abstract(参考訳): 公正な分類は、国際規制と高い意思決定環境における利用の増加により重要度が増している重要な課題である。
既存の手法は、しばしばセンシティブなグループ間での対向学習や分布マッチングに頼っているが、対向学習は不安定であり、分布マッチングは計算集約的である。
これらの制約に対処するため,特徴関数距離に基づく新しい手法を提案する。
本手法は,下流タスクの効率を高く保ちながら,学習した表現が最小限の機密情報を含むことを保証する。
特徴関数を利用することで,従来の手法に比べて安定で効率的な解が得られる。
さらに、性能劣化のない共通分類モデルにおいて、公平性を保証する目的関数の簡易緩和を導入する。
ベンチマークデータセットを用いた実験結果から,本手法は既存手法よりも公平性や予測精度が良好であることが確認された。
さらに,本手法はロバスト性や計算効率を保ち,実世界のアプリケーションに実用的なソリューションを提供する。
関連論文リスト
- Feature Space Perturbation: A Panacea to Enhanced Transferability Estimation [13.930288332118561]
本稿では,特徴空間を体系的に変更することにより,伝達可能性推定のプロセスを向上させる特徴摂動手法を提案する。
本手法では,クラス間の距離を最小化し,クラス境界を曖昧にするため,クラス内変動を増加させるスプレッド演算と,クラス間の距離を最小化するアトラクション演算を含む。
論文 参考訳(メタデータ) (2025-02-23T07:07:49Z) - Re-evaluating Group Robustness via Adaptive Class-Specific Scaling [47.41034887474166]
群分散ロバスト最適化は、スプリアス相関とアドレスデータセットバイアスを軽減するために使われる顕著なアルゴリズムである。
既存のアプローチでは、堅牢なアキュラシーの改善が報告されているが、固有のトレードオフのため、平均的な精度が犠牲になっている。
本稿では,既存のデバイアスアルゴリズムに直接適用可能なクラス固有のスケーリング戦略を提案する。
我々は、このトレードオフを軽減するために、インスタンスワイド適応スケーリング技術を開発し、堅牢性と平均的アキュラシーの両方の改善に繋がる。
論文 参考訳(メタデータ) (2024-12-19T16:01:51Z) - Navigating Towards Fairness with Data Selection [27.731128352096555]
ラベルバイアスを効率的かつ柔軟に緩和するデータ選択法を提案する。
提案手法では,ゼロショット予測器をプロキシモデルとして利用し,クリーンなホールトアウトセットでのトレーニングをシミュレートする。
我々のモダリティ非依存手法は,実験評価において,ラベルバイアスの処理と多種多様なデータセット間の公正性向上に効果的かつ効果的であることが証明された。
論文 参考訳(メタデータ) (2024-12-15T06:11:05Z) - Statistical Inference for Temporal Difference Learning with Linear Function Approximation [62.69448336714418]
The consistency properties of TD learning with Polyak-Ruppert averaging and linear function approximation。
まず、分散に明示的に依存し、弱い条件下で保持する新しい高次元確率収束保証を導出する。
さらに、文献よりも高速な速度を保証する凸集合のクラスに対して、洗練された高次元ベリー-エッセイン境界を確立する。
論文 参考訳(メタデータ) (2024-10-21T15:34:44Z) - Fair Active Learning in Low-Data Regimes [22.349886628823125]
機械学習の応用においては、社会的不平等の持続を避けるために公正性の確保が不可欠である。
本研究では,データスカース環境におけるバイアスの低減と精度向上という課題に対処する。
本稿では,後方サンプリングにインスパイアされた探索手法と,公平な分類サブルーチンを組み合わせた,革新的なアクティブラーニングフレームワークを提案する。
この枠組みは,確率の高い公正制約を満足しつつ,精度を最大化しながら,非常にデータ量の多い状況下で効果的に機能することが実証された。
論文 参考訳(メタデータ) (2023-12-13T23:14:55Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Accuracy and Fairness Trade-offs in Machine Learning: A Stochastic
Multi-Objective Approach [0.0]
機械学習を実生活の意思決定システムに適用すると、予測結果は機密性の高い属性を持つ人々に対して差別され、不公平になる可能性がある。
公正機械学習における一般的な戦略は、予測損失の最小化において、制約や罰則として公正さを含めることである。
本稿では,多目的最適化問題を定式化して公平性を扱うための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-03T18:51:24Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。