論文の概要: The Effect of Enforcing Fairness on Reshaping Explanations in Machine Learning Models
- arxiv url: http://arxiv.org/abs/2512.02265v1
- Date: Mon, 01 Dec 2025 23:16:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.644861
- Title: The Effect of Enforcing Fairness on Reshaping Explanations in Machine Learning Models
- Title(参考訳): 機械学習モデルにおけるフェアネスの付与が表現の再構築に及ぼす影響
- Authors: Joshua Wolff Anderson, Shyam Visweswaran,
- Abstract要約: 医療における信頼できる機械学習には、強い予測性能、公正性、説明が必要である。
臨床医は、公正な制約が適用されると説明が変わるモデルに頼ることをためらうことがある。
本研究は, 偏差緩和技術による公平度向上が, シェープリーに基づく特徴ランク付けにどう影響するかを検討する。
- 参考スコア(独自算出の注目度): 4.121376921198563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trustworthy machine learning in healthcare requires strong predictive performance, fairness, and explanations. While it is known that improving fairness can affect predictive performance, little is known about how fairness improvements influence explainability, an essential ingredient for clinical trust. Clinicians may hesitate to rely on a model whose explanations shift after fairness constraints are applied. In this study, we examine how enhancing fairness through bias mitigation techniques reshapes Shapley-based feature rankings. We quantify changes in feature importance rankings after applying fairness constraints across three datasets: pediatric urinary tract infection risk, direct anticoagulant bleeding risk, and recidivism risk. We also evaluate multiple model classes on the stability of Shapley-based rankings. We find that increasing model fairness across racial subgroups can significantly alter feature importance rankings, sometimes in different ways across groups. These results highlight the need to jointly consider accuracy, fairness, and explainability in model assessment rather than in isolation.
- Abstract(参考訳): 医療における信頼できる機械学習には、強い予測性能、公正性、説明が必要である。
公正さの改善が予測性能に影響を及ぼすことは知られているが、公平さの改善が説明可能性にどのように影響するかは分かっていない。
臨床医は、公正な制約が適用されると説明が変わるモデルに頼ることをためらうことがある。
本研究では, 偏差緩和技術による公平度向上が, シェープリーに基づく特徴ランキングにどう影響するかを検討する。
小児尿路感染症リスク, 直接的抗凝固血リスク, リシビズムリスクの3つのデータセットにおいて, 公平性制約を適用した上での特徴的重要度ランキングの変化を定量化する。
また、シェープリーに基づくランキングの安定性について、複数のモデルクラスの評価を行った。
人種的サブグループ間でのモデルフェアネスの増加は、時にグループ間で異なる方法で、特徴的重要性のランクを著しく変える可能性がある。
これらの結果は、単独でではなく、モデルアセスメントにおける正確性、公平性、説明可能性について共同で検討する必要性を浮き彫りにする。
関連論文リスト
- Equitable Survival Prediction: A Fairness-Aware Survival Modeling (FASM) Approach [13.80791791871853]
本研究では,グループ内およびグループ間リスクランキングに関するアルゴリズムバイアスを軽減するためのFairness-Aware Survival Modeling (FASM)を提案する。
時間的階層化評価の結果,FASMは10年間の地平線上で安定な公正性を維持しており,追跡中盤に最も改善が見られた。
論文 参考訳(メタデータ) (2025-10-23T15:03:27Z) - An ExplainableFair Framework for Prediction of Substance Use Disorder Treatment Completion [2.863968392011842]
本研究の目的は,公正性と説明可能性に対処する枠組みを開発し,実装することであった。
本稿では、まず最適化された性能を持つモデルを開発し、次にモデルバイアスを軽減するために内部処理アプローチを用いる、説明可能な公平性フレームワークを提案する。
得られた公正度向上モデルは、公正度の向上と、医療提供者が臨床意思決定と資源配分をガイドする上で有用な洞察を提供するであろう公正度向上の説明により、高い感度を維持している。
論文 参考訳(メタデータ) (2024-04-04T23:30:01Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。