論文の概要: Concept Complement Bottleneck Model for Interpretable Medical Image Diagnosis
- arxiv url: http://arxiv.org/abs/2410.15446v1
- Date: Sun, 20 Oct 2024 16:52:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:20:35.320760
- Title: Concept Complement Bottleneck Model for Interpretable Medical Image Diagnosis
- Title(参考訳): 解釈可能な医用画像診断のための概念補完ボトルネックモデル
- Authors: Hongmei Wang, Junlin Hou, Hao Chen,
- Abstract要約: 本稿では,医用画像診断のための補完的ボトルネックモデルを提案する。
そこで本研究では,概念の相違点を抽出し,それぞれの注意チャンネルで概念をスコアリングするために,概念アダプタを利用することを提案する。
本モデルでは,概念検出と疾患診断の課題において,最先端の競争相手よりも優れていた。
- 参考スコア(独自算出の注目度): 8.252227380729188
- License:
- Abstract: Models based on human-understandable concepts have received extensive attention to improve model interpretability for trustworthy artificial intelligence in the field of medical image analysis. These methods can provide convincing explanations for model decisions but heavily rely on the detailed annotation of pre-defined concepts. Consequently, they may not be effective in cases where concepts or annotations are incomplete or low-quality. Although some methods automatically discover effective and new visual concepts rather than using pre-defined concepts or could find some human-understandable concepts via large Language models, they are prone to veering away from medical diagnostic evidence and are challenging to understand. In this paper, we propose a concept complement bottleneck model for interpretable medical image diagnosis with the aim of complementing the existing concept set and finding new concepts bridging the gap between explainable models. Specifically, we propose to use concept adapters for specific concepts to mine the concept differences and score concepts in their own attention channels to support almost fairly concept learning. Then, we devise a concept complement strategy to learn new concepts while jointly using known concepts to improve model performance. Comprehensive experiments on medical datasets demonstrate that our model outperforms the state-of-the-art competitors in concept detection and disease diagnosis tasks while providing diverse explanations to ensure model interpretability effectively.
- Abstract(参考訳): 人間の理解可能な概念に基づくモデルは、医療画像解析の分野で信頼できる人工知能のモデル解釈可能性を改善するために広く注目を集めている。
これらの手法は、モデル決定の説得力のある説明を提供するが、事前に定義された概念の詳細なアノテーションに大きく依存している。
したがって、概念やアノテーションが不完全あるいは低品質である場合に有効ではないかもしれない。
事前に定義された概念を使うのではなく、効果的で新しい視覚概念を自動的に発見する手法や、大きな言語モデルを通して人間の理解可能な概念を見つける方法もあるが、医学的診断の証拠から遠ざかる傾向があり、理解が難しい。
本稿では,既存の概念セットを補完し,説明可能なモデル間のギャップを埋める新たな概念を見つけることを目的とした,医療画像診断の解釈のための概念補完ボトルネックモデルを提案する。
具体的には,概念の差分を抽出し,概念を認識チャネルでスコアし,概念学習を支援するための概念アダプタを提案する。
そこで我々は,モデル性能を向上させるために既知の概念を共同で使用しながら,新しい概念を学ぶための概念補完戦略を考案した。
医療データセットに関する総合的な実験により、我々のモデルは概念検出と疾患診断タスクにおいて最先端の競合よりも優れており、モデルの解釈可能性を確保するための多様な説明を提供する。
関連論文リスト
- Evidential Concept Embedding Models: Towards Reliable Concept Explanations for Skin Disease Diagnosis [24.946148305384202]
CBM(Concept Bottleneck Models)は、人間の解釈可能な概念を意思決定に取り入れた、アクティブな解釈可能なフレームワークとして登場した。
本研究では,概念の不確かさをモデル化するために明らかな学習を利用する概念埋め込みモデル(evi-CEM)を提案する。
本評価は,evi-CEMが概念予測において優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-06-27T12:29:50Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Separable Multi-Concept Erasure from Diffusion Models [52.51972530398691]
大規模拡散モデルから安全でない概念を排除するために,分離可能なマルチコンセプト消去器(SepME)を提案する。
後者は最適化可能なモデルウェイトを分離し、各ウェイトインクリメントは特定の概念の消去に対応する。
広範囲にわたる実験は, 概念の排除, モデル性能の保存, 各種概念の消去・回復における柔軟性の確保に, アプローチの有効性を示すものである。
論文 参考訳(メタデータ) (2024-02-03T11:10:57Z) - MICA: Towards Explainable Skin Lesion Diagnosis via Multi-Level
Image-Concept Alignment [4.861768967055006]
本稿では, 医療画像と臨床関連概念を多層的に意味的に整合させるマルチモーダル説明型疾患診断フレームワークを提案する。
提案手法は, モデル解釈可能性を維持しながら, 概念検出と疾患診断に高い性能とラベル効率を実現する。
論文 参考訳(メタデータ) (2024-01-16T17:45:01Z) - An Axiomatic Approach to Model-Agnostic Concept Explanations [67.84000759813435]
本稿では、線形性、再帰性、類似性という3つの自然な公理を満たす概念的説明へのアプローチを提案する。
次に、従来の概念的説明手法とのつながりを確立し、それらの意味の異なる意味についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-12T20:53:35Z) - Towards Concept-based Interpretability of Skin Lesion Diagnosis using
Vision-Language Models [0.0]
視覚言語モデルを用いて,多数の概念アノテーションを用いたサンプルへの依存を緩和できることを示す。
特に,概念に基づく記述をテキスト埋め込みとして用いて,CLIPを皮膚病変分類の下流タスクに適用するための埋め込み学習戦略を提案する。
論文 参考訳(メタデータ) (2023-11-24T08:31:34Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Concept Bottleneck with Visual Concept Filtering for Explainable Medical
Image Classification [16.849592713393896]
概念ボトルネックモデル(CBM)は、人間の理解可能な概念を中間目標として利用することにより、解釈可能な画像分類を可能にする。
視覚的アクティベーションスコアは,視覚的手がかりを含むか否かを測定する。
計算された視覚的アクティベーションスコアは、見えない概念をフィルタリングするために使用され、結果として視覚的に意味のある概念がセットされる。
論文 参考訳(メタデータ) (2023-08-23T05:04:01Z) - Coherent Concept-based Explanations in Medical Image and Its Application
to Skin Lesion Diagnosis [0.0]
既存のメラノーマ皮膚病変診断のための深層学習アプローチはブラックボックスモデルとみなす。
本稿では,概念ベースモデルの解釈可能性を改善するために,本質的に解釈可能なフレームワークを提案する。
本手法は皮膚病変分類のための既存のブラックボックスとコンセプトベースモデルより優れている。
論文 参考訳(メタデータ) (2023-04-10T13:32:04Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Concept Bottleneck Models [79.91795150047804]
現在の最先端モデルは、通常「骨の支柱の存在」のような概念の操作をサポートしない。
トレーニング時に提供される概念を最初に予測し、ラベルを予測するためにこれらの概念を使用するという古典的な考え方を再考する。
X線グレーディングと鳥の識別では、概念ボトルネックモデルが標準のエンドツーエンドモデルと競合する精度を達成する。
論文 参考訳(メタデータ) (2020-07-09T07:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。