論文の概要: Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models
- arxiv url: http://arxiv.org/abs/2310.03182v1
- Date: Wed, 4 Oct 2023 21:57:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 20:09:26.593951
- Title: Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models
- Title(参考訳): 概念ボトルネックモデルによるロバスト・解釈可能な医用画像分類器
- Authors: An Yan, Yu Wang, Yiwu Zhong, Zexue He, Petros Karypis, Zihan Wang,
Chengyu Dong, Amilcare Gentili, Chun-Nan Hsu, Jingbo Shang, Julian McAuley
- Abstract要約: 本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
- 参考スコア(独自算出の注目度): 49.95603725998561
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Medical image classification is a critical problem for healthcare, with the
potential to alleviate the workload of doctors and facilitate diagnoses of
patients. However, two challenges arise when deploying deep learning models to
real-world healthcare applications. First, neural models tend to learn spurious
correlations instead of desired features, which could fall short when
generalizing to new domains (e.g., patients with different ages). Second, these
black-box models lack interpretability. When making diagnostic predictions, it
is important to understand why a model makes a decision for trustworthy and
safety considerations. In this paper, to address these two limitations, we
propose a new paradigm to build robust and interpretable medical image
classifiers with natural language concepts. Specifically, we first query
clinical concepts from GPT-4, then transform latent image features into
explicit concepts with a vision-language model. We systematically evaluate our
method on eight medical image classification datasets to verify its
effectiveness. On challenging datasets with strong confounding factors, our
method can mitigate spurious correlations thus substantially outperform
standard visual encoders and other baselines. Finally, we show how
classification with a small number of concepts brings a level of
interpretability for understanding model decisions through case studies in real
medical data.
- Abstract(参考訳): 医用画像分類は医療にとって重要な問題であり、医師の負担を軽減し、患者の診断を促進する可能性がある。
しかし、ディープラーニングモデルを現実世界の医療アプリケーションにデプロイする場合、2つの課題が発生する。
第一に、神経モデルは望ましい特徴ではなくスプリアス相関を学習する傾向にあり、新しい領域(例えば年齢の異なる患者)に一般化すると不足する可能性がある。
第二に、ブラックボックスモデルには解釈性がない。
診断予測を行う場合には,モデルが信頼性と安全性を判断する理由を理解することが重要である。
本稿では,この2つの制約に対処するために,自然言語概念を用いたロバストで解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
8つの医用画像分類データセットを体系的に評価し,その有効性を検証した。
強結合因子を持つデータセットの課題に対して,本手法はスプリアス相関を軽減し,標準ビジュアルエンコーダや他のベースラインを実質的に上回る。
最後に、少数の概念を用いた分類が、実際の医療データにおけるケーススタディを通してモデル決定を理解するためのレベルの解釈可能性をもたらすことを示す。
関連論文リスト
- A Two-Step Concept-Based Approach for Enhanced Interpretability and Trust in Skin Lesion Diagnosis [6.6635650150737815]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解できない概念のセットに対する最終疾患予測を制約することにより、固有の解釈可能性を提供する。
これらの課題に対処する新しい2段階の方法論を導入する。
CBMの2段階をシミュレートすることにより,臨床概念の自動予測にVLM(Pretrained Vision Language Model),疾患診断にLLM(Large Language Model)を用いる。
論文 参考訳(メタデータ) (2024-11-08T14:52:42Z) - DiffExplainer: Unveiling Black Box Models Via Counterfactual Generation [11.201840101870808]
ブラックボックスモデルに接続した場合に異なる決定を誘導する反ファクト画像を生成することができるエージェントモデルを提案する。
このエージェントモデルを用いることで、ブラックモデルの最終予測に影響を与える影響のあるイメージパターンを明らかにすることができる。
医療予後タスクの厳格な領域におけるアプローチの検証を行った。
論文 参考訳(メタデータ) (2024-06-21T14:27:02Z) - A Textbook Remedy for Domain Shifts: Knowledge Priors for Medical Image Analysis [48.84443450990355]
ディープネットワークは、医学的なスキャンに適用すると、例外のない状況で失敗することが多いため、自然画像の解析において広く成功している。
胸部X線や皮膚病変画像の文脈において、異なる病院から採取したデータや、性別、人種などの人口統計学的変数によって構築されたデータなど、ドメインシフトに対するモデル感度に焦点をあてる。
医学教育からインスピレーションを得て,自然言語で伝達される明示的な医学知識を基盤としたディープネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T17:55:02Z) - MICA: Towards Explainable Skin Lesion Diagnosis via Multi-Level
Image-Concept Alignment [4.861768967055006]
本稿では, 医療画像と臨床関連概念を多層的に意味的に整合させるマルチモーダル説明型疾患診断フレームワークを提案する。
提案手法は, モデル解釈可能性を維持しながら, 概念検出と疾患診断に高い性能とラベル効率を実現する。
論文 参考訳(メタデータ) (2024-01-16T17:45:01Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images [52.527733226555206]
複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
論文 参考訳(メタデータ) (2023-03-15T14:00:11Z) - Towards Trustable Skin Cancer Diagnosis via Rewriting Model's Decision [12.306688233127312]
本稿では,モデルトレーニングプロセスにHuman-in-the-loopフレームワークを導入する。
提案手法は, 共起因子を自動的に検出する。
容易に得られる概念の模範を用いて、相反する概念を学習することができる。
論文 参考訳(メタデータ) (2023-03-02T01:02:18Z) - Review of Disentanglement Approaches for Medical Applications -- Towards
Solving the Gordian Knot of Generative Models in Healthcare [3.5586630313792513]
本稿では,GAN(Generative Adversarial Networks)やVAE(VAE),フローベースモデルなど,一般的な生成モデルの概要を紹介する。
理論的枠組みを導入した後,最近の医学的応用の概要を述べ,医学的応用における解離アプローチの影響と重要性について論じる。
論文 参考訳(メタデータ) (2022-03-21T17:06:22Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。