論文の概要: Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing
- arxiv url: http://arxiv.org/abs/2207.10384v2
- Date: Fri, 16 Jun 2023 10:00:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 18:34:30.281040
- Title: Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing
- Title(参考訳): ショートカットテストを用いた公平な医療AIのためのショートカット学習の検出
- Authors: Alexander Brown, Nenad Tomasev, Jan Freyberg, Yuan Liu, Alan
Karthikesalingam, Jessica Schrouff
- Abstract要約: 機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
- 参考スコア(独自算出の注目度): 62.9062883851246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) holds great promise for improving healthcare, but it is
critical to ensure that its use will not propagate or amplify health
disparities. An important step is to characterize the (un)fairness of ML models
- their tendency to perform differently across subgroups of the population -
and to understand its underlying mechanisms. One potential driver of
algorithmic unfairness, shortcut learning, arises when ML models base
predictions on improper correlations in the training data. However, diagnosing
this phenomenon is difficult, especially when sensitive attributes are causally
linked with disease. Using multi-task learning, we propose the first method to
assess and mitigate shortcut learning as a part of the fairness assessment of
clinical ML systems, and demonstrate its application to clinical tasks in
radiology and dermatology. Finally, our approach reveals instances when
shortcutting is not responsible for unfairness, highlighting the need for a
holistic approach to fairness mitigation in medical AI.
- Abstract(参考訳): 機械学習(ML)は、医療を改善するための大きな約束を持っていますが、その使用が健康格差を伝播または増幅しないことを保証することは重要です。
重要なステップは、MLモデルの(不)公正性を特徴づけることである。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータの不適切な相関に基づいてMLモデルが予測を行うときに発生する。
しかし、特に感度特性が疾患と因果関係にある場合、この現象の診断は困難である。
マルチタスク学習を用いて, 近道学習を臨床mlシステムの公平性評価の一部として評価・緩和する最初の方法を提案し, 放射線学および皮膚科における臨床課題への応用を実証する。
最後に,近道が不公平な行為に責任を負わない場合の事例を明らかにし,医療aiにおける公平さ緩和への総合的なアプローチの必要性を強調した。
関連論文リスト
- Expert Study on Interpretable Machine Learning Models with Missing Data [10.637366819633302]
Inherently Interpretable Machine Learning (IML)モデルは、臨床的意思決定に有用な洞察を提供するが、特徴が欠落している場合に課題に直面している。
フランス全国29のトラウマセンターから71名の臨床医を対象に,医療従事者とICMの相互作用について検討した。
論文 参考訳(メタデータ) (2024-11-14T17:02:41Z) - XAI4LLM. Let Machine Learning Models and LLMs Collaborate for Enhanced In-Context Learning in Healthcare [16.79952669254101]
多層構造プロンプトを用いたゼロショット/ファウショットインコンテキスト学習(ICL)のための新しい手法を開発した。
また、ユーザと大規模言語モデル(LLM)間の2つのコミュニケーションスタイルの有効性についても検討する。
本研究は,性別バイアスや偽陰性率などの診断精度とリスク要因を系統的に評価する。
論文 参考訳(メタデータ) (2024-05-10T06:52:44Z) - Interpretable Machine Learning for Survival Analysis [3.618561939712435]
解釈可能な機械学習(IML)や説明可能な人工知能(XAI)はこの10年でますます重要になっている。
簡単に利用できるIML手法の欠如は、公衆衛生における医療実践者や政策立案者が機械学習の潜在能力を最大限に活用することを妨げる可能性がある。
一般のIML分類学の文脈における生存分析のためのIML法に関する限られた既存の研究成果について概説する。
論文 参考訳(メタデータ) (2024-03-15T12:38:00Z) - Federated Learning for Early Dropout Prediction on Healthy Ageing
Applications [0.0]
我々は、プライバシの懸念を最小限に抑え、個々のデータを転送することなく分散トレーニングを可能にするフェデレーション機械学習(FML)アプローチを提案する。
その結果,FMLでトレーニングしたモデルの予測精度は,データ選択とクラス不均衡ハンドリング技術により有意に向上した。
論文 参考訳(メタデータ) (2023-09-08T13:17:06Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - Artificial Intelligence for Dementia Research Methods Optimization [0.49050354212898845]
本稿では,認知症研究において最も頻繁に使用される機械学習アルゴリズムの概要を紹介する。
本稿では, 再現性と解釈可能性の問題と, 認知症研究の臨床的応用性への影響について論じる。
本稿では, 伝達学習, マルチタスク学習, 強化学習といった最先端の手法が, これらの課題を克服するためにどのように応用されるかを示す。
論文 参考訳(メタデータ) (2023-03-02T08:50:25Z) - Auditing Algorithmic Fairness in Machine Learning for Health with
Severity-Based LOGAN [70.76142503046782]
臨床予測タスクにおいて,局所バイアスを自動検出するSLOGANを用いて,機械学習ベースの医療ツールを補足することを提案する。
LOGANは、患者の重症度と過去の医療史における集団バイアス検出を文脈化することにより、既存のツールであるLOcal Group biAs detectioNに適応する。
SLOGANは, クラスタリング品質を維持しながら, 患者群の75%以上において, SLOGANよりも高い公平性を示す。
論文 参考訳(メタデータ) (2022-11-16T08:04:12Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Inheritance-guided Hierarchical Assignment for Clinical Automatic
Diagnosis [50.15205065710629]
臨床診断は、臨床ノートに基づいて患者に診断符号を割り当てることを目的としており、臨床意思決定において重要な役割を担っている。
本稿では,臨床自動診断のための継承誘導階層と共起グラフの伝播を組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-01-27T13:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。