論文の概要: Penalized Fair Regression for Multiple Groups in Chronic Kidney Disease
- arxiv url: http://arxiv.org/abs/2512.17340v1
- Date: Fri, 19 Dec 2025 08:33:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.307591
- Title: Penalized Fair Regression for Multiple Groups in Chronic Kidney Disease
- Title(参考訳): 慢性腎臓病における複数グループに対する処罰的公正回帰
- Authors: Carter H. Nakamoto, Lucia Lushi Chen, Agata Foryciarz, Sherri Rose,
- Abstract要約: 複数のグループがそのような偏見を経験したとき、処罰された公正な回帰についてはほとんど研究されていない。
複数のグループに対する不公平な罰則とこのギャップに対処する一般的な回帰フレームワークを提案する。
医療システムにおける社会的偏見を経験する複数の人種・民族集団に対する公正性の実質的な改善を見出した。
- 参考スコア(独自算出の注目度): 1.9249287163937974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fair regression methods have the potential to mitigate societal bias concerns in health care, but there has been little work on penalized fair regression when multiple groups experience such bias. We propose a general regression framework that addresses this gap with unfairness penalties for multiple groups. Our approach is demonstrated for binary outcomes with true positive rate disparity penalties. It can be efficiently implemented through reduction to a cost-sensitive classification problem. We additionally introduce novel score functions for automatically selecting penalty weights. Our penalized fair regression methods are empirically studied in simulations, where they achieve a fairness-accuracy frontier beyond that of existing comparison methods. Finally, we apply these methods to a national multi-site primary care study of chronic kidney disease to develop a fair classifier for end-stage renal disease. There we find substantial improvements in fairness for multiple race and ethnicity groups who experience societal bias in the health care system without any appreciable loss in overall fit.
- Abstract(参考訳): 公正回帰法は、医療における社会的偏見を緩和する可能性があるが、複数のグループがそのような偏見を経験するときの罰則的公正回帰についてはほとんど研究されていない。
複数のグループに対する不公平な罰則とこのギャップに対処する一般的な回帰フレームワークを提案する。
本手法は,正の正の正の差が認められた2値結果に対して有効である。
コストに敏感な分類問題に還元することで効率よく実装することができる。
また,ペナルティ重みを自動的に選択する新しいスコア関数を導入する。
本手法は, 従来の比較法を超越したフェアネス・精度のフロンティアを実現するシミュレーションにおいて, 実験的に研究されている。
最後に,これらの手法を慢性腎疾患の全国的多施設プライマリケア研究に適用し,末期腎疾患の公平な分類法を開発した。
そこでは、健康保険制度における社会的偏見を経験する複数の人種・民族集団に対する公正性の実質的な改善が、全体的な適合性を損なうことなく見いだされる。
関連論文リスト
- OxEnsemble: Fair Ensembles for Low-Data Classification [9.81842989622959]
我々は,低データ体制におけるアンサンブルを効率的に訓練し,公平性を高めるための新しいアプローチを提案する。
構成上、emphOxEnsembleはデータ効率が高く、ホールドアウトしたデータを慎重に再利用して公平性を確実に実施し、計算効率が良い。
論文 参考訳(メタデータ) (2025-12-10T14:08:44Z) - Fairness Perceptions in Regression-based Predictive Models [0.19999259391104385]
本稿では, 回帰分析ツールの妥当性を評価するために, 分散に基づくグループフェアネスの概念を3つ導入する。
群衆のフィードバックは、社会的公平さの選好を推定するために使用される。
本研究は, 男女・人種群に対して, 年齢群では不公平ではあるが, 性別・人種群では公平であると考えられた。
論文 参考訳(メタデータ) (2025-05-08T01:48:27Z) - Demographic parity in regression and classification within the unawareness framework [8.057006406834466]
2次損失を最小化する際の最適値回帰関数を特徴付ける。
また,最適公正コスト感性分類と最適公正回帰の関連性についても検討した。
論文 参考訳(メタデータ) (2024-09-04T06:43:17Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Fair learning with Wasserstein barycenters for non-decomposable
performance measures [8.508198765617198]
本研究は,人口順の制約下での精度の最大化が,対応する回帰問題の解法と等価であることを示す。
この結果を線形屈折法分類尺度(例えば$rm F$-score、AM測度、平衡精度など)に拡張する。
論文 参考訳(メタデータ) (2022-09-01T13:06:43Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Fairness-aware Model-agnostic Positive and Unlabeled Learning [38.50536380390474]
フェアプル(FairPUL)という,フェアネスを意識したポジティブ・アンラベル学習手法を提案する。
2つの集団の個体を二分分類するために、同様の正の率と偽の正の率を達成することを目指している。
我々のフレームワークは、分類誤差と公正度の両方の観点から統計的に一貫性があることが証明されている。
論文 参考訳(メタデータ) (2022-06-19T08:04:23Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - Fairness-aware Class Imbalanced Learning [57.45784950421179]
つぶやきの感情と職業分類のロングテール学習手法を評価する。
フェアネスを強制する手法により、マージンロスに基づくアプローチを拡張します。
論文 参考訳(メタデータ) (2021-09-21T22:16:30Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。