論文の概要: A tutorial on fairness in machine learning in healthcare
- arxiv url: http://arxiv.org/abs/2406.09307v2
- Date: Sat, 15 Jun 2024 11:44:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 12:44:32.006557
- Title: A tutorial on fairness in machine learning in healthcare
- Title(参考訳): 医療における機械学習の公平性に関するチュートリアル
- Authors: Jianhui Gao, Benson Chou, Zachary R. McCaw, Hilary Thurston, Paul Varghese, Chuan Hong, Jessica Gronsbell,
- Abstract要約: このチュートリアルは、機械学習における公平性の共通概念に医療情報コミュニティを導入するために設計されている。
本稿では、医療におけるモデルが不公平である理由の概説を含む、MLにおける公平性を定義するための基本的な概念と方法について述べる。
我々は、総合的なグループフェアネス評価のためのユーザフレンドリーなRパッケージを提供し、研究者や臨床医が自身のMLワークにおけるフェアネスを評価することを可能にする。
- 参考スコア(独自算出の注目度): 0.6311610943467981
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: $\textbf{OBJECTIVE}$: Ensuring that machine learning (ML) algorithms are safe and effective within all patient groups, and do not disadvantage particular patients, is essential to clinical decision making and preventing the reinforcement of existing healthcare inequities. The objective of this tutorial is to introduce the medical informatics community to the common notions of fairness within ML, focusing on clinical applications and implementation in practice. $\textbf{TARGET AUDIENCE}$: As gaps in fairness arise in a variety of healthcare applications, this tutorial is designed to provide an understanding of fairness, without assuming prior knowledge, to researchers and clinicians who make use of modern clinical data. $\textbf{SCOPE}$: We describe the fundamental concepts and methods used to define fairness in ML, including an overview of why models in healthcare may be unfair, a summary and comparison of the metrics used to quantify fairness, and a discussion of some ongoing research. We illustrate some of the fairness methods introduced through a case study of mortality prediction in a publicly available electronic health record dataset. Finally, we provide a user-friendly R package for comprehensive group fairness evaluation, enabling researchers and clinicians to assess fairness in their own ML work.
- Abstract(参考訳): $\textbf{OBJECTIVE}$: 機械学習(ML)アルゴリズムがすべての患者グループの中で安全かつ効果的であることを保証する。
本チュートリアルの目的は,臨床応用と実践に焦点をあて,医療情報化コミュニティをML内の公平性の共通概念に導入することである。
$\textbf{TARGET AUDIENCE}$: 様々な医療アプリケーションでフェアネスのギャップが生じるにつれて、このチュートリアルは、最新の臨床データを利用する研究者や臨床医に、事前の知識を仮定することなく、フェアネスの理解を提供するように設計されている。
$\textbf{SCOPE}$: 医療におけるモデルが不公平である理由、フェアネスの定量化に使用されるメトリクスの要約と比較、進行中の研究の議論など、MLにおけるフェアネスを定義するための基本的な概念と方法について説明する。
本稿では、電子健康記録データセットにおける死亡予測のケーススタディを通じて導入された公平性について述べる。
最後に,総合的なグループフェアネス評価のためのユーザフレンドリーなRパッケージを提供することにより,研究者や臨床医が自身のML作業におけるフェアネスを評価することができる。
関連論文リスト
- FairFML: Fair Federated Machine Learning with a Case Study on Reducing Gender Disparities in Cardiac Arrest Outcome Prediction [10.016644624468762]
本稿では,Fair Federated Machine Learning (FairFML)について紹介する。
概念実証として,心停止予測における性差の低減を目的とした実世界の臨床ケーススタディを用いて,FairFMLを検証した。
その結果,FairFMLは局所モデルと集中モデルの両方に匹敵する性能を維持しながら,集中モデルと比較して最大65%のモデルフェアネス向上を実現していることがわかった。
論文 参考訳(メタデータ) (2024-10-07T13:02:04Z) - Fairness in Machine Learning meets with Equity in Healthcare [6.842248432925292]
本研究では,データやモデルのバイアスを識別・緩和する人工知能フレームワークを提案する。
ケーススタディでは、データの体系的バイアスがモデル予測における増幅バイアスにどのように寄与するかを示す。
今後の研究は、提案するMLフレームワークを実世界の臨床環境でテストし、検証することを目的としており、その影響が健康株の促進に与える影響を評価する。
論文 参考訳(メタデータ) (2023-05-11T14:25:34Z) - Connecting Fairness in Machine Learning with Public Health Equity [0.0]
データとモデル設計のバイアスは、特定の保護されたグループの格差をもたらし、医療における既存の不平等を増幅します。
本研究は,MLフェアネスに関する基礎文献を要約し,データとモデルのバイアスを特定し緩和するための枠組みを提案する。
ケーススタディは、このフレームワークがこれらのバイアスを防ぎ、公衆衛生における公平で公平なMLモデルの必要性を強調するためにどのように使用できるかを示している。
論文 参考訳(メタデータ) (2023-04-08T10:21:49Z) - Globalizing Fairness Attributes in Machine Learning: A Case Study on
Health in Africa [8.566023181495929]
フェアネスは、アフリカにおける世界的な健康に影響を及ぼすが、既にグローバル・ノースとサウスの間には不平等な権力不均衡がある。
本稿では,アフリカの文脈で考慮すべき公平性属性を提案し,それらがML対応の異なる医療モダリティでどのような役割を果たすのかを明記する。
論文 参考訳(メタデータ) (2023-04-05T02:10:53Z) - Privacy-preserving machine learning for healthcare: open challenges and
future perspectives [72.43506759789861]
医療におけるプライバシー保護機械学習(PPML)に関する最近の文献を概観する。
プライバシ保護トレーニングと推論・アズ・ア・サービスに重点を置いています。
このレビューの目的は、医療におけるプライベートかつ効率的なMLモデルの開発をガイドすることである。
論文 参考訳(メタデータ) (2023-03-27T19:20:51Z) - Auditing Algorithmic Fairness in Machine Learning for Health with
Severity-Based LOGAN [70.76142503046782]
臨床予測タスクにおいて,局所バイアスを自動検出するSLOGANを用いて,機械学習ベースの医療ツールを補足することを提案する。
LOGANは、患者の重症度と過去の医療史における集団バイアス検出を文脈化することにより、既存のツールであるLOcal Group biAs detectioNに適応する。
SLOGANは, クラスタリング品質を維持しながら, 患者群の75%以上において, SLOGANよりも高い公平性を示す。
論文 参考訳(メタデータ) (2022-11-16T08:04:12Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Technical Challenges for Training Fair Neural Networks [62.466658247995404]
最先端のアーキテクチャを用いて顔認識と自動診断データセットの実験を行います。
我々は、大きなモデルは公平さの目標に過度に適合し、意図しない、望ましくない結果を生み出すことを観察する。
論文 参考訳(メタデータ) (2021-02-12T20:36:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。