論文の概要: IFFair: Influence Function-driven Sample Reweighting for Fair Classification
- arxiv url: http://arxiv.org/abs/2512.07249v1
- Date: Mon, 08 Dec 2025 07:45:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.765528
- Title: IFFair: Influence Function-driven Sample Reweighting for Fair Classification
- Title(参考訳): IFFair: 公正な分類のための機能駆動型サンプル再重み付け
- Authors: Jingran Yang, Min Zhang, Lingfeng Zhang, Zhaohui Wang, Yonggang Zhang,
- Abstract要約: 本稿では,影響関数に基づくIFFairの事前処理手法を提案する。
他のフェアネス最適化手法と比較して、IFFairは異なるグループにおけるトレーニングサンプルの影響の差のみを使用する。
従来の前処理方法と比較して、複数のユーティリティとフェアネスのメトリクス間のトレードオフが向上します。
- 参考スコア(独自算出の注目度): 20.099162424205936
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Because machine learning has significantly improved efficiency and convenience in the society, it's increasingly used to assist or replace human decision-making. However, the data-based pattern makes related algorithms learn and even exacerbate potential bias in samples, resulting in discriminatory decisions against certain unprivileged groups, depriving them of the rights to equal treatment, thus damaging the social well-being and hindering the development of related applications. Therefore, we propose a pre-processing method IFFair based on the influence function. Compared with other fairness optimization approaches, IFFair only uses the influence disparity of training samples on different groups as a guidance to dynamically adjust the sample weights during training without modifying the network structure, data features and decision boundaries. To evaluate the validity of IFFair, we conduct experiments on multiple real-world datasets and metrics. The experimental results show that our approach mitigates bias of multiple accepted metrics in the classification setting, including demographic parity, equalized odds, equality of opportunity and error rate parity without conflicts. It also demonstrates that IFFair achieves better trade-off between multiple utility and fairness metrics compared with previous pre-processing methods.
- Abstract(参考訳): 機械学習は社会の効率と利便性を大幅に改善したので、人間の意思決定を支援したり置き換えたりするのにますます使われています。
しかし、データに基づくパターンは、関連するアルゴリズムを学習させ、サンプルの潜在的なバイアスを悪化させ、その結果、特定の特権のないグループに対して差別的な決定を下し、平等な治療の権利を剥奪し、社会的幸福を損なうとともに、関連するアプリケーションの開発を妨げる。
そこで本研究では,影響関数に基づくIFFairの事前処理手法を提案する。
他の公正度最適化手法と比較して、IFFairはトレーニング中のサンプル重量をネットワーク構造、データ特徴、決定境界を変更することなく動的に調整するためのガイダンスとして、異なるグループでのトレーニングサンプルの影響の相違のみを使用する。
IFFairの有効性を評価するために、複数の実世界のデータセットとメトリクスについて実験を行う。
実験結果から,本手法は,人口格差,均等化オッズ,機会の平等,エラー率パリティなどの分類条件において,競合のない複数の指標の偏りを緩和することが示された。
また、IFFairは、以前の前処理方法と比較して、複数のユーティリティとフェアネスのメトリクスのトレードオフを改善することも示している。
関連論文リスト
- Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Understanding Instance-Level Impact of Fairness Constraints [12.866655972682254]
公正な制約が課された場合のトレーニング例の影響について検討する。
重みのあるデータ例のサブセットでのトレーニングは、精度のトレードオフによって公平性違反の低減につながることが分かっています。
論文 参考訳(メタデータ) (2022-06-30T17:31:33Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - Achieving Fairness at No Utility Cost via Data Reweighing with Influence [27.31236521189165]
トレーニング段階におけるサンプルの重量のみを調整するデータリライジング手法を提案する。
本研究は,各トレーニングサンプルの影響を,公正度関連量と予測ユーティリティに関して詳細にモデル化する。
当社のアプローチは、トレードオフを実証的に解放し、平等な機会のために無償の公平性を得ることができます。
論文 参考訳(メタデータ) (2022-02-01T22:12:17Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。