論文の概要: Explaining medical AI performance disparities across sites with
confounder Shapley value analysis
- arxiv url: http://arxiv.org/abs/2111.08168v1
- Date: Fri, 12 Nov 2021 18:54:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 06:48:31.547338
- Title: Explaining medical AI performance disparities across sites with
confounder Shapley value analysis
- Title(参考訳): 共同設立者のShapley値分析による医療AIのパフォーマンス格差の説明
- Authors: Eric Wu, Kevin Wu, James Zou
- Abstract要約: マルチサイト評価は、このような格差を診断する鍵となる。
本フレームワークは,各種類のバイアスが全体の性能差に与える影響を定量化する手法を提供する。
本研究は, 深部学習モデルを用いて気胸の有無を検知し, その有用性を実証するものである。
- 参考スコア(独自算出の注目度): 8.785345834486057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical AI algorithms can often experience degraded performance when
evaluated on previously unseen sites. Addressing cross-site performance
disparities is key to ensuring that AI is equitable and effective when deployed
on diverse patient populations. Multi-site evaluations are key to diagnosing
such disparities as they can test algorithms across a broader range of
potential biases such as patient demographics, equipment types, and technical
parameters. However, such tests do not explain why the model performs worse.
Our framework provides a method for quantifying the marginal and cumulative
effect of each type of bias on the overall performance difference when a model
is evaluated on external data. We demonstrate its usefulness in a case study of
a deep learning model trained to detect the presence of pneumothorax, where our
framework can help explain up to 60% of the discrepancy in performance across
different sites with known biases like disease comorbidities and imaging
parameters.
- Abstract(参考訳): 医療AIアルゴリズムは、これまで見えないサイトで評価された場合、しばしば劣化したパフォーマンスを経験する。
クロスサイトパフォーマンスの格差に対処することは、AIが多様な患者集団にデプロイされるときに公平で効果的であることを保証する鍵となる。
マルチサイト評価は、患者人口、機器タイプ、技術的パラメータなど、幅広い潜在的なバイアスでアルゴリズムをテストすることができるため、このような格差を診断する鍵となる。
しかし、このようなテストでは、なぜモデルが悪化するかは説明できない。
本フレームワークは,外部データを用いたモデル評価において,各バイアスの限界および累積効果が全体の性能差に与える影響を定量化する手法を提供する。
気胸の存在を検知するために訓練された深層学習モデルのケーススタディにおいて,我々は,疾患のコンプレディティや画像パラメータなどの既知のバイアスのある異なるサイトにおけるパフォーマンスの最大60%の相違を説明するのに,その有用性を示す。
関連論文リスト
- Slicing Through Bias: Explaining Performance Gaps in Medical Image Analysis using Slice Discovery Methods [5.274804664403783]
我々はSlice Discovery Methodsを用いて、観測された性能格差の原因に関する仮説とデータの解釈可能な未実行部分集合を同定する。
本研究は, 仮説定式化におけるSDMの有効性を実証し, 既往の男女間パフォーマンスの相違について解説する。
論文 参考訳(メタデータ) (2024-06-17T23:08:46Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Unbiased Pain Assessment through Wearables and EHR Data: Multi-attribute
Fairness Loss-based CNN Approach [3.799109312082668]
本稿では,MAFL(Multi-Atribute Fairness Loss)に基づくCNNモデルを提案する。
提案手法と既存の緩和手順を比較し, 実装されたモデルが最先端の手法と対照的に良好に機能することを明らかにする。
論文 参考訳(メタデータ) (2023-07-03T09:21:36Z) - AI in the Loop -- Functionalizing Fold Performance Disagreement to
Monitor Automated Medical Image Segmentation Pipelines [0.0]
臨床的実践に機械学習を安全に実装するためには、パフォーマンス予測が不十分なことを自動でフラグする手法が不可欠である。
本稿では、異なるデータセットの折りたたみ部で訓練されたサブモデルを用いて、容易に適用可能な手法を提案する。
論文 参考訳(メタデータ) (2023-05-15T21:35:23Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - A method for comparing multiple imputation techniques: a case study on
the U.S. National COVID Cohort Collaborative [1.259457977936316]
統計的解析の文脈において、欠落データを扱うための戦略を数値的に評価する。
このアプローチは、最も有効でパフォーマンスの低いデータハンドリング戦略を効果的に強調することができる。
論文 参考訳(メタデータ) (2022-06-13T19:49:54Z) - Analyzing the Effects of Handling Data Imbalance on Learned Features
from Medical Images by Looking Into the Models [50.537859423741644]
不均衡なデータセットでモデルをトレーニングすることは、学習問題にユニークな課題をもたらす可能性がある。
ニューラルネットワークの内部ユニットを深く調べて、データの不均衡処理が学習した機能にどのように影響するかを観察します。
論文 参考訳(メタデータ) (2022-04-04T09:38:38Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - Algorithmic encoding of protected characteristics and its implications
on disparities across subgroups [17.415882865534638]
機械学習モデルは、患者の人種的アイデンティティと臨床結果の間に望ましくない相関関係を拾うことができる。
これらのバイアスがどのようにコード化され、どのように異なるパフォーマンスを減らしたり、取り除いたりするかについては、ほとんど分かっていない。
論文 参考訳(メタデータ) (2021-10-27T20:30:57Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。