論文の概要: Fairness-Aware Interpretable Modeling (FAIM) for Trustworthy Machine
Learning in Healthcare
- arxiv url: http://arxiv.org/abs/2403.05235v1
- Date: Fri, 8 Mar 2024 11:51:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 20:11:15.250023
- Title: Fairness-Aware Interpretable Modeling (FAIM) for Trustworthy Machine
Learning in Healthcare
- Title(参考訳): 医療における信頼できる機械学習のためのフェアネス・アウェア・インタプリタブル・モデリング(FAIM)
- Authors: Mingxuan Liu, Yilin Ning, Yuhe Ke, Yuqing Shang, Bibhas Chakraborty,
Marcus Eng Hock Ong, Roger Vaughan, Nan Liu
- Abstract要約: フェアネス・アウェア・インタプリタブル・モデリング(FAIM)を提案し,性能を損なうことなくモデルフェアネスを改善する。
FAIMは、ハイパフォーマンスモデルのセットから"フェアラー"モデルを識別するためのインタラクティブインターフェースを備えている。
FAIMモデルは, 良好な識別性能を示すだけでなく, 確立された公正度測定値によって測定されたバイアスを著しく軽減することを示した。
- 参考スコア(独自算出の注目度): 6.608905791768002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The escalating integration of machine learning in high-stakes fields such as
healthcare raises substantial concerns about model fairness. We propose an
interpretable framework - Fairness-Aware Interpretable Modeling (FAIM), to
improve model fairness without compromising performance, featuring an
interactive interface to identify a "fairer" model from a set of
high-performing models and promoting the integration of data-driven evidence
and clinical expertise to enhance contextualized fairness. We demonstrated
FAIM's value in reducing sex and race biases by predicting hospital admission
with two real-world databases, MIMIC-IV-ED and SGH-ED. We show that for both
datasets, FAIM models not only exhibited satisfactory discriminatory
performance but also significantly mitigated biases as measured by
well-established fairness metrics, outperforming commonly used bias-mitigation
methods. Our approach demonstrates the feasibility of improving fairness
without sacrificing performance and provides an a modeling mode that invites
domain experts to engage, fostering a multidisciplinary effort toward tailored
AI fairness.
- Abstract(参考訳): 医療などの高リスク分野における機械学習のさらなる統合は、モデルの公平性に関する大きな懸念を引き起こす。
本稿では,高パフォーマンスモデルから「フェアラー」モデルを識別するための対話インタフェースと,文脈に応じたフェアネスを高めるためのデータ駆動型エビデンスと臨床専門知識の統合を促進するための,モデルフェアネスを改善するための解釈可能なフレームワークであるFAIMを提案する。
FAIMは,MIMIC-IV-EDとSGH-EDの2つの実世界データベースを用いて入院を予測し,性差と人種バイアスの低減に有用であることを示した。
両データセットにおいて, FAIMモデルは, 良好な識別性能を示すだけでなく, 確立された公正度測定値によって測定されたバイアスを著しく低減し, 一般的に使用されているバイアス緩和法よりも優れていた。
提案手法は,パフォーマンスを犠牲にすることなく公正性向上の実現可能性を示し,ドメインエキスパートの参加を促すモデリングモードを提供する。
関連論文リスト
- Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - To the Fairness Frontier and Beyond: Identifying, Quantifying, and
Optimizing the Fairness-Accuracy Pareto Frontier [1.5293427903448022]
アルゴリズムフェアネスは、機械学習を用いて高い社会的決定を行う際に重要な考慮事項として現れてきた。
しかし、改善された公正さは、しばしばモデルの正確さを犠牲にする。
フェアネス・正確性トレードオフの実証的パレートフロンティアを特定し、定量化し、最適化することを模索する。
論文 参考訳(メタデータ) (2022-05-31T19:35:53Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - FedFair: Training Fair Models In Cross-Silo Federated Learning [47.63052284529811]
我々はFedFairを開発した。FedFairは、よく設計されたフェデレートされた学習フレームワークで、データプライバシーを侵害することなく、高いパフォーマンスで公正なモデルをトレーニングできる。
実世界の3つのデータセットに対する実験により,本手法の優れた公正モデルトレーニング性能が示された。
論文 参考訳(メタデータ) (2021-09-13T01:30:04Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Ethical Adversaries: Towards Mitigating Unfairness with Adversarial
Machine Learning [8.436127109155008]
個人や組織は、モデルデザイナやデプロイ担当者が責任を持つように、不公平な結果に気付き、テストし、批判します。
トレーニングデータセットから生じる不公平な表現を緩和する上で,これらのグループを支援するフレームワークを提供する。
我々のフレームワークは公平性を改善するために2つの相互運用敵に依存している。
論文 参考訳(メタデータ) (2020-05-14T10:10:19Z) - FairALM: Augmented Lagrangian Method for Training Fair Models with
Little Regret [42.66567001275493]
現在、我々がモデルに提示するデータセットのバイアスのため、公正な公開トレーニングが不公平なモデルにつながることは受け入れられている。
そこで本研究では,モデルのトレーニング中に公平性を同時に課すメカニズムについて検討する。
論文 参考訳(メタデータ) (2020-04-03T03:18:53Z) - Fairness by Explicability and Adversarial SHAP Learning [0.0]
本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
論文 参考訳(メタデータ) (2020-03-11T14:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。