論文の概要: Enhancing Multi-Attribute Fairness in Healthcare Predictive Modeling
- arxiv url: http://arxiv.org/abs/2501.13219v1
- Date: Wed, 22 Jan 2025 21:02:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:59:33.767532
- Title: Enhancing Multi-Attribute Fairness in Healthcare Predictive Modeling
- Title(参考訳): 医療予測モデルにおけるマルチ属性フェアネスの促進
- Authors: Xiaoyang Wang, Christopher C. Yang,
- Abstract要約: 我々は、医療AIにおけるマルチ属性フェアネス最適化に対する新しいアプローチを導入し、複数の属性にまたがるフェアネスの懸念に同時に対処する。
その結果, 高い予測精度を維持しつつ, 複数の属性に対する等化オッド分散(EOD)の顕著な低減効果を示した。
- 参考スコア(独自算出の注目度): 3.997371369137763
- License:
- Abstract: Artificial intelligence (AI) systems in healthcare have demonstrated remarkable potential to improve patient outcomes. However, if not designed with fairness in mind, they also carry the risks of perpetuating or exacerbating existing health disparities. Although numerous fairness-enhancing techniques have been proposed, most focus on a single sensitive attribute and neglect the broader impact that optimizing fairness for one attribute may have on the fairness of other sensitive attributes. In this work, we introduce a novel approach to multi-attribute fairness optimization in healthcare AI, tackling fairness concerns across multiple demographic attributes concurrently. Our method follows a two-phase approach: initially optimizing for predictive performance, followed by fine-tuning to achieve fairness across multiple sensitive attributes. We develop our proposed method using two strategies, sequential and simultaneous. Our results show a significant reduction in Equalized Odds Disparity (EOD) for multiple attributes, while maintaining high predictive accuracy. Notably, we demonstrate that single-attribute fairness methods can inadvertently increase disparities in non-targeted attributes whereas simultaneous multi-attribute optimization achieves more balanced fairness improvements across all attributes. These findings highlight the importance of comprehensive fairness strategies in healthcare AI and offer promising directions for future research in this critical area.
- Abstract(参考訳): 医療における人工知能システム(AI)は、患者の成果を著しく改善する可能性を示している。
しかし、公正性を念頭に置いて設計されていない場合は、既存の健康格差を持続または悪化させるリスクも負う。
多くのフェアネス・エンハンシング技術が提案されているが、ほとんどの場合、単一のセンシティブな属性に焦点を当て、ある属性に対するフェアネスの最適化が他のセンシティブな属性の公平性に与える影響を無視する。
本研究では,医療AIにおけるマルチ属性フェアネス最適化の新たなアプローチを導入し,複数の属性にまたがるフェアネスの懸念に同時に対処する。
提案手法は,まず予測性能を最適化し,続いて細調整を行い,複数の感度特性の公平性を実現する2段階の手法である。
提案手法は,逐次的かつ同時的な2つの戦略を用いて開発する。
その結果, 高い予測精度を維持しつつ, 複数の属性に対する等化オッド分散(EOD)の顕著な低減効果を示した。
特に,単一属性フェアネス法は非対象属性の相違を必然的に増大させることができるのに対し,同時多属性最適化は全属性間のバランスの取れたフェアネス改善を実現する。
これらの知見は、医療AIにおける包括的公正戦略の重要性を強調し、この重要な領域における将来の研究に有望な方向性を提供する。
関連論文リスト
- FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning [48.38344934125999]
提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
論文 参考訳(メタデータ) (2024-10-23T04:43:03Z) - Fair Recommendations with Limited Sensitive Attributes: A Distributionally Robust Optimization Approach [46.61096160935783]
本稿では,推薦システムにおける公平性を確保するために,分散ロバスト公正最適化(DRFO)を提案する。
DRFOは、欠落した機密属性の潜在的な確率分布に対する最悪の不公平性を最小化する。
我々は,提案手法が推薦システムの公平性を効果的に確保できることを示す理論的,実証的な証拠を提供する。
論文 参考訳(メタデータ) (2024-05-02T07:40:51Z) - Class-attribute Priors: Adapting Optimization to Heterogeneity and
Fairness Objective [54.33066660817495]
現代の分類問題は、個々のクラスにまたがって不均一性を示す。
本稿では,クラス固有の学習戦略を効果的かつ汎用的に生成するCAPを提案する。
CAPは先行技術と競合しており、その柔軟性により、バランスの取れた精度以上の公平性目標に対する明確なメリットが期待できる。
論文 参考訳(メタデータ) (2024-01-25T17:43:39Z) - Achieve Fairness without Demographics for Dermatological Disease
Diagnosis [17.792332189055223]
そこで本研究では,テストフェーズにおいて,そのような情報を用いることなく,感度特性の公平な予測を可能にする手法を提案する。
特徴の絡み合いが公正性に与える影響を強調した先行研究から着想を得て,重要属性や対象属性に関連する特徴を捉えることにより,モデルの特徴を高める。
これにより、機密属性に関連する機能に頼ることなく、モデルがターゲット属性に関連する機能に基づいてのみ分類できることが保証される。
論文 参考訳(メタデータ) (2024-01-16T02:49:52Z) - Muffin: A Framework Toward Multi-Dimension AI Fairness by Uniting
Off-the-Shelf Models [9.01924639426239]
モデルフェアネス(すなわちバイアス)は、幅広いAIアプリケーションにおいて最も重要な問題の一つとなっている。
本稿では,マルチ次元フェアネスフレームワーク,すなわちMuffinを提案する。このフレームワークは,複数の属性に対するフェアネスを同時に向上するために,市販モデルを統合する自動ツールを含む。
論文 参考訳(メタデータ) (2023-08-26T02:04:10Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Adaptive Fairness Improvement Based on Causality Analysis [5.827653543633839]
識別ニューラルネットワークが与えられた場合、公平性向上の問題は、その性能を著しく損なうことなく、系統的に差別を減らすことである。
本稿では,因果分析に基づくフェアネス改善手法を適応的に選択する手法を提案する。
我々のアプローチは効果的(すなわち、常に最良の公正性を改善する方法を特定する)で効率的(すなわち平均時間オーバーヘッドが5分)である。
論文 参考訳(メタデータ) (2022-09-15T10:05:31Z) - Multiple Attribute Fairness: Application to Fraud Detection [0.0]
本稿では, 人気均等度制度における等値条件を緩和する公平度尺度を提案する。
評価基準に適合する機密属性値当たりの結果を校正する反復的非依存グリッドベースモデルを設計する。
論文 参考訳(メタデータ) (2022-07-28T19:19:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。