論文の概要: Achieving Fairness Without Harm via Selective Demographic Experts
- arxiv url: http://arxiv.org/abs/2511.06293v1
- Date: Sun, 09 Nov 2025 09:11:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.867786
- Title: Achieving Fairness Without Harm via Selective Demographic Experts
- Title(参考訳): 選択的なデモグラフィックエキスパートによるハームのないフェアネスの達成
- Authors: Xuwei Tan, Yuanlong Wang, Thai-Hoang Pham, Ping Zhang, Xueru Zhang,
- Abstract要約: バイアス緩和技術は、公平性と正確性の間にトレードオフを課すことが多い。
臨床診断のような高い領域では、そのようなトレードオフは倫理的にも現実的にも受け入れられない。
我々は、異なる人口集団の異なる表現を学習し、公平で無害なアプローチを提案する。
- 参考スコア(独自算出の注目度): 16.212815178841087
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning systems become increasingly integrated into human-centered domains such as healthcare, ensuring fairness while maintaining high predictive performance is critical. Existing bias mitigation techniques often impose a trade-off between fairness and accuracy, inadvertently degrading performance for certain demographic groups. In high-stakes domains like clinical diagnosis, such trade-offs are ethically and practically unacceptable. In this study, we propose a fairness-without-harm approach by learning distinct representations for different demographic groups and selectively applying demographic experts consisting of group-specific representations and personalized classifiers through a no-harm constrained selection. We evaluate our approach on three real-world medical datasets -- covering eye disease, skin cancer, and X-ray diagnosis -- as well as two face datasets. Extensive empirical results demonstrate the effectiveness of our approach in achieving fairness without harm.
- Abstract(参考訳): 機械学習システムが医療などの人間中心の領域にますます統合されるにつれて、高い予測性能を維持しながら公正性を確保することが重要である。
既存のバイアス緩和技術は、公正性と正確性の間のトレードオフをしばしば課し、特定の人口集団のパフォーマンスを不注意に劣化させる。
臨床診断のような高い領域では、そのようなトレードオフは倫理的にも現実的にも受け入れられない。
本研究では,グループ固有の表現とパーソナライズされた分類器からなる人口動態の専門家を,非ハーム制約の選択によって選択的に適用し,異なる集団集団の異なる表現を学習し,公平かつ無害なアプローチを提案する。
我々は、眼疾患、皮膚がん、X線診断の3つの実際の医療データセットと、2つの顔データセットに対するアプローチを評価した。
広範囲な実験結果から, 害のない公平性を実現するためのアプローチの有効性が示された。
関連論文リスト
- Incorporating Rather Than Eliminating: Achieving Fairness for Skin Disease Diagnosis Through Group-Specific Expert [18.169924728540487]
本稿では,FairMoEについて紹介する。FairMoEは,実験モジュールを階層的に混合し,グループ固有の学習者として機能するフレームワークである。
グループラベルに基づいてデータを厳格に割り当てる従来の方法とは異なり、FairMoEはデータを最も適した専門家に動的にルーティングする。
論文 参考訳(メタデータ) (2025-06-21T18:42:00Z) - FairREAD: Re-fusing Demographic Attributes after Disentanglement for Fair Medical Image Classification [3.615240611746158]
FairREAD (Fair Refusion After Disentanglement) は, センシティブな階層属性を公正な画像表現に再統合することで不公平を緩和するフレームワークである。
FairREADは、臨床に関係のある詳細を保存するために、制御された再灌流機構を使用しながら、人口統計情報をアンタングルする敵の訓練を採用している。
大規模臨床X線データセットの総合的評価は、FairREADが診断精度を維持しながら不公平度指標を著しく低減することを示した。
論文 参考訳(メタデータ) (2024-12-20T22:17:57Z) - Fair Distillation: Teaching Fairness from Biased Teachers in Medical Imaging [16.599189934420885]
本研究では,Fair Distillation (FairDi) 法を提案する。
また,FairDiの精度は,既存手法に比べて向上し,グループ別精度も向上した。
FairDiは分類やセグメンテーションなどの様々な医療タスクに適応し、公平なモデルパフォーマンスのための効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-11-18T16:50:34Z) - Generative models improve fairness of medical classifiers under
distribution shifts [49.10233060774818]
データから現実的な拡張を自動的に学習することは、生成モデルを用いてラベル効率の良い方法で可能であることを示す。
これらの学習の強化は、モデルをより堅牢で統計的に公平に配布できることを示した。
論文 参考訳(メタデータ) (2023-04-18T18:15:38Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Fairness-aware Model-agnostic Positive and Unlabeled Learning [38.50536380390474]
フェアプル(FairPUL)という,フェアネスを意識したポジティブ・アンラベル学習手法を提案する。
2つの集団の個体を二分分類するために、同様の正の率と偽の正の率を達成することを目指している。
我々のフレームワークは、分類誤差と公正度の両方の観点から統計的に一貫性があることが証明されている。
論文 参考訳(メタデータ) (2022-06-19T08:04:23Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。