論文の概要: Vision-Language Models Encode Clinical Guidelines for Concept-Based Medical Reasoning
- arxiv url: http://arxiv.org/abs/2603.08921v1
- Date: Mon, 09 Mar 2026 20:39:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.821021
- Title: Vision-Language Models Encode Clinical Guidelines for Concept-Based Medical Reasoning
- Title(参考訳): 概念に基づく医療推論のための臨床ガイドラインを符号化した視覚言語モデル
- Authors: Mohamed Harmanani, Bining Long, Zhuoxin Guo, Paul F. R. Wilson, Amirhossein Sabour, Minh Nguyen Nhat To, Gabor Fichtinger, Purang Abolmaesumi, Parvin Mousavi,
- Abstract要約: 概念ボトルネックモデル(Concept Bottleneck Models, CBM)は、AIを解釈するための重要なフレームワークである。
臨床ガイドラインを視覚言語と推論モデルと統合する概念ベースの推論フレームワークであるMedCBRを提案する。
本フレームワークは,医用画像解析から意思決定までの終端ブリッジを構築できる。
- 参考スコア(独自算出の注目度): 3.2723884637302443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concept Bottleneck Models (CBMs) are a prominent framework for interpretable AI that map learned visual features to a set of meaningful concepts for task-specific downstream predictions. Their sequential structure enhances transparency by connecting model predictions to the underlying concepts that support them. In medical imaging, where transparency is essential, CBMs offer an appealing foundation for explainable model design. However, discrete concept representations often overlook broader clinical context such as diagnostic guidelines and expert heuristics, reducing reliability in complex cases. We propose MedCBR, a concept-based reasoning framework that integrates clinical guidelines with vision-language and reasoning models. Labeled clinical descriptors are transformed into guideline-conformant text, and a concept-based model is trained with a multitask objective combining multimodal contrastive alignment, concept supervision, and diagnostic classification to jointly ground image features, concepts, and pathology. A reasoning model then converts these predictions into structured clinical narratives that explain the diagnosis, emulating expert reasoning based on established guidelines. MedCBR achieves superior diagnostic and concept-level performance, with AUROCs of 94.2% on ultrasound and 84.0% on mammography. Further experiments on non-medical datasets achieve 86.1% accuracy. Our framework enhances interpretability and forms an end-to-end bridge from medical image analysis to decision-making.
- Abstract(参考訳): 概念ボトルネックモデル(Concept Bottleneck Models, CBM)は、学習した視覚的特徴をタスク固有の下流予測のための意味のある概念のセットにマッピングする、解釈可能なAIのための顕著なフレームワークである。
そのシーケンシャルな構造は、モデル予測とそれらをサポートする基本的な概念を結びつけることによって透明性を高める。
透明性が不可欠である医用画像では、CBMは説明可能なモデル設計のための魅力的な基盤を提供する。
しかし、離散的な概念表現は、診断ガイドラインや専門家のヒューリスティックスのようなより広い臨床状況を見落とし、複雑なケースの信頼性を低下させる。
臨床ガイドラインを視覚言語と推論モデルと統合する概念ベースの推論フレームワークであるMedCBRを提案する。
ラベル付き臨床記述子は、ガイドラインに適合したテキストに変換され、マルチモーダルコントラストアライメント、概念監督、診断分類を併用したマルチタスク目的のコンセプトベースモデルが、共同で画像の特徴、概念、病理学を基礎として訓練される。
推論モデルは、これらの予測を構造化された臨床物語に変換し、診断を説明し、確立されたガイドラインに基づいて専門家の推論をエミュレートする。
MedCBRは、超音波では94.2%、マンモグラフィでは84.0%という優れた診断と概念レベルのパフォーマンスを実現している。
非医療データセットに関するさらなる実験は86.1%の精度を達成した。
本フレームワークは,医用画像解析から意思決定に至るまで,解釈可能性を高め,エンドツーエンドのブリッジを形成する。
関連論文リスト
- Concept-Enhanced Multimodal RAG: Towards Interpretable and Accurate Radiology Report Generation [12.226029763256962]
VLM(Vision-Language Models)による放射線学レポート生成は、ドキュメントの負担軽減、レポートの一貫性の向上、臨床導入の加速を約束する。
既存の研究では、解釈可能性と精度を別々の目的として扱い、概念に基づく説明可能性技術は透明性に重点を置いている。
本稿では,視覚表現を解釈可能な臨床概念に分解する統合フレームワークであるCEMRAG(Concept-Enhanced Multimodal RAG)を提案する。
論文 参考訳(メタデータ) (2026-02-17T15:18:07Z) - AgentsEval: Clinically Faithful Evaluation of Medical Imaging Reports via Multi-Agent Reasoning [73.50200033931148]
本稿では,放射線科医の協調診断ワークフローをエミュレートしたマルチエージェントストリーム推論フレームワークであるAgensEvalを紹介する。
評価プロセスを基準定義、エビデンス抽出、アライメント、一貫性スコアなどの解釈可能なステップに分割することで、AgensEvalは明確な推論トレースと構造化された臨床フィードバックを提供する。
実験結果から,AgensEvalは,言い換え,意味的,スタイリスティックな摂動の下でも頑健な臨床的整合性,意味的忠実性,解釈可能な評価を提供することが示された。
論文 参考訳(メタデータ) (2026-01-23T11:59:13Z) - RAD: Towards Trustworthy Retrieval-Augmented Multi-modal Clinical Diagnosis [56.373297358647655]
Retrieval-Augmented Diagnosis (RAD)は、下流タスクで直接マルチモーダルモデルに外部知識を注入する新しいフレームワークである。
RADは、複数の医療ソースからの疾患中心の知識の検索と改善、ガイドライン強化コントラスト損失トランスフォーマー、デュアルデコーダの3つの主要なメカニズムで機能する。
論文 参考訳(メタデータ) (2025-09-24T10:36:14Z) - Towards generating more interpretable counterfactuals via concept vectors: a preliminary study on chest X-rays [46.667021835430155]
我々は、臨床概念を生成モデルの潜在空間にマッピングし、概念活性化ベクトル(CAV)を同定する。
抽出された概念はデータセット全体にわたって安定しており、臨床的に関連する特徴を強調する視覚的説明を可能にする。
胸部X線検査の予備的結果から, 胸部X線検査は, 心筋症などの大きな病態を呈するが, より小さな病態はいまだに困難である。
論文 参考訳(メタデータ) (2025-06-04T15:23:12Z) - An Explainable Biomedical Foundation Model via Large-Scale Concept-Enhanced Vision-Language Pre-training [40.16314726875265]
ConceptCLIPは、最先端の診断精度を達成する最初の説明可能なバイオメディカル基礎モデルである。
本研究では,グローバルな画像テキスト表現と細粒度領域概念関連を同時に学習する,新しいデュアルアライメントアプローチにより,概念CLIPを開発する。
論文 参考訳(メタデータ) (2025-01-26T16:07:11Z) - Integrating Clinical Knowledge into Concept Bottleneck Models [18.26357481872999]
概念ボトルネックモデル(CBM)は最終出力を予測する前に人間の解釈可能な概念を予測する。
臨床知識の統合によるCBMの洗練, 臨床医の意思決定プロセスとの整合性の向上を提案する。
医療画像の2つのデータセット(白血球と皮膚画像)にアプローチを検証した。
論文 参考訳(メタデータ) (2024-07-09T07:03:42Z) - Aligning Human Knowledge with Visual Concepts Towards Explainable Medical Image Classification [8.382606243533942]
本稿では,説明可能な言語インフォームド基準に基づく診断に向けて,シンプルで効果的なフレームワークであるExplicdを紹介した。
事前訓練された視覚言語モデルを活用することで、Explicdはこれらの基準を知識アンカーとして埋め込み空間に注入する。
最終的な診断結果は、符号化された視覚概念とテキストの基準埋め込みとの類似度スコアに基づいて決定される。
論文 参考訳(メタデータ) (2024-06-08T23:23:28Z) - MICA: Towards Explainable Skin Lesion Diagnosis via Multi-Level
Image-Concept Alignment [4.861768967055006]
本稿では, 医療画像と臨床関連概念を多層的に意味的に整合させるマルチモーダル説明型疾患診断フレームワークを提案する。
提案手法は, モデル解釈可能性を維持しながら, 概念検出と疾患診断に高い性能とラベル効率を実現する。
論文 参考訳(メタデータ) (2024-01-16T17:45:01Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Interpretable Vertebral Fracture Diagnosis [69.68641439851777]
ブラックボックスニューラルネットワークモデルは、骨折診断のための臨床的に関連する特徴を学習する。
この研究は、CT画像における脊椎骨折の診断にネットワークが使用する概念を特定する。
論文 参考訳(メタデータ) (2022-03-30T13:07:41Z) - BI-RADS-Net: An Explainable Multitask Learning Approach for Cancer
Diagnosis in Breast Ultrasound Images [69.41441138140895]
本稿では,乳房超音波画像における癌検出のための新しい深層学習手法であるBI-RADS-Netを紹介する。
提案手法は, 臨床診断に関連する特徴表現を学習することにより, 乳腺腫瘍の説明と分類を行うタスクを取り入れたものである。
臨床医が医療現場で診断・報告するために使用する形態学的特徴の観点から予測(良性または悪性)の説明が提供される。
論文 参考訳(メタデータ) (2021-10-05T19:14:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。