論文の概要: FairReweighing: Density Estimation-Based Reweighing Framework for Improving Separation in Fair Regression
- arxiv url: http://arxiv.org/abs/2511.11459v1
- Date: Fri, 14 Nov 2025 16:31:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.719254
- Title: FairReweighing: Density Estimation-Based Reweighing Framework for Improving Separation in Fair Regression
- Title(参考訳): FairReweighing: 公平回帰における分離改善のための密度推定に基づくリウィーリングフレームワーク
- Authors: Xiaoyin Xi, Zhe Yu,
- Abstract要約: 透明性の欠如は、データインフォームドAIソフトウェアがすべての人種、性別、年齢グループに対する公平性を保証するかどうかという懸念を提起している。
公平な分類でリウィーリングアルゴリズムを動機付け, 密度推定に基づくFairReweighingプリプロセッシングアルゴリズムを提案する。
提案したFairReweighingアルゴリズムは,データ独立仮定の下でトレーニングデータの分離を保証できることを示す。
- 参考スコア(独自算出の注目度): 2.4224069468449634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been a prevalence of applying AI software in both high-stakes public-sector and industrial contexts. However, the lack of transparency has raised concerns about whether these data-informed AI software decisions secure fairness against people of all racial, gender, or age groups. Despite extensive research on emerging fairness-aware AI software, up to now most efforts to solve this issue have been dedicated to binary classification tasks. Fairness in regression is relatively underexplored. In this work, we adopted a mutual information-based metric to assess separation violations. The metric is also extended so that it can be directly applied to both classification and regression problems with both binary and continuous sensitive attributes. Inspired by the Reweighing algorithm in fair classification, we proposed a FairReweighing pre-processing algorithm based on density estimation to ensure that the learned model satisfies the separation criterion. Theoretically, we show that the proposed FairReweighing algorithm can guarantee separation in the training data under a data independence assumption. Empirically, on both synthetic and real-world data, we show that FairReweighing outperforms existing state-of-the-art regression fairness solutions in terms of improving separation while maintaining high accuracy.
- Abstract(参考訳): ハイシークターと産業の両方にAIソフトウェアを適用する傾向があります。
しかし、透明性の欠如は、これらのデータインフォームドAIソフトウェアがあらゆる人種、性別、年齢グループの人々に対する公平性を保証するかどうかという懸念を引き起こしている。
新たな公正を意識したAIソフトウェアに関する広範な研究にもかかわらず、この問題を解決しようとする取り組みは、これまではバイナリ分類タスクに重点を置いてきた。
回帰の公平性は比較的過小評価されている。
本研究では,分離違反を評価するために,相互情報に基づく尺度を採用した。
計量も拡張され、二分性属性と連続性属性の両方で分類問題と回帰問題の両方に直接適用できる。
公平な分類においてReweighingアルゴリズムにインスパイアされた我々は,学習モデルが分離基準を満たすことを保証するために,密度推定に基づくFairReweighing事前処理アルゴリズムを提案した。
理論的には、提案したFairReweighingアルゴリズムは、データ独立仮定の下でトレーニングデータの分離を保証することができる。
実証的には、合成データと実世界のデータの両方において、FairReweighingは、高い精度を維持しながら分離を改善しながら、既存の最先端の回帰フェアネスソリューションより優れていることを示す。
関連論文リスト
- Uncertainty-Aware Fairness-Adaptive Classification Trees [0.0]
本稿では,木構築プロセスに公平性調整を組み込んだ新しい分割基準を用いた新しい分類木アルゴリズムを提案する。
本手法は,従来の分類木に比べて識別予測を効果的に削減し,全体的な精度を損なわないことを示す。
論文 参考訳(メタデータ) (2024-10-08T08:42:12Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - On Comparing Fair Classifiers under Data Bias [42.43344286660331]
本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - Arbitrariness and Social Prediction: The Confounding Role of Variance in
Fair Classification [31.392067805022414]
異なる訓練されたモデル間での予測のばらつきは、公正なバイナリ分類における重要な、未探索のエラーの原因である。
実際には、いくつかのデータ例のばらつきは非常に大きいので、決定を効果的に任意にすることができる。
予測が任意である場合に分類を省略するアンサンブルアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-01-27T06:52:04Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Implementing Fair Regression In The Real World [3.723553383515688]
このような公正な回帰の実施が個人に与える影響を調査します。
既存の公正回帰アプローチの有用性を改善するための一連の後処理アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-09T13:31:16Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。