論文の概要: Concept Bottleneck with Visual Concept Filtering for Explainable Medical
Image Classification
- arxiv url: http://arxiv.org/abs/2308.11920v1
- Date: Wed, 23 Aug 2023 05:04:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 15:49:24.282227
- Title: Concept Bottleneck with Visual Concept Filtering for Explainable Medical
Image Classification
- Title(参考訳): 説明可能な医用画像分類のための視覚概念フィルタリングを用いた概念ボトルネック
- Authors: Injae Kim, Jongha Kim, Joonmyung Choi, Hyunwoo J. Kim
- Abstract要約: 概念ボトルネックモデル(CBM)は、人間の理解可能な概念を中間目標として利用することにより、解釈可能な画像分類を可能にする。
視覚的アクティベーションスコアは,視覚的手がかりを含むか否かを測定する。
計算された視覚的アクティベーションスコアは、見えない概念をフィルタリングするために使用され、結果として視覚的に意味のある概念がセットされる。
- 参考スコア(独自算出の注目度): 16.849592713393896
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability is a crucial factor in building reliable models for various
medical applications. Concept Bottleneck Models (CBMs) enable interpretable
image classification by utilizing human-understandable concepts as intermediate
targets. Unlike conventional methods that require extensive human labor to
construct the concept set, recent works leveraging Large Language Models (LLMs)
for generating concepts made automatic concept generation possible. However,
those methods do not consider whether a concept is visually relevant or not,
which is an important factor in computing meaningful concept scores. Therefore,
we propose a visual activation score that measures whether the concept contains
visual cues or not, which can be easily computed with unlabeled image data.
Computed visual activation scores are then used to filter out the less visible
concepts, thus resulting in a final concept set with visually meaningful
concepts. Our experimental results show that adopting the proposed visual
activation score for concept filtering consistently boosts performance compared
to the baseline. Moreover, qualitative analyses also validate that visually
relevant concepts are successfully selected with the visual activation score.
- Abstract(参考訳): 解釈性は、様々な医療応用のために信頼できるモデルを構築する上で重要な要素である。
概念ボトルネックモデル(CBM)は、人間の理解可能な概念を中間目標として利用することにより、解釈可能な画像分類を可能にする。
概念セットを構築するために大規模な人的労働を必要とする従来の手法とは異なり、概念を生成するためにLLM(Large Language Models)を利用する最近の研究は、自動概念生成を可能にした。
しかし、これらの手法は、概念が視覚的に関連があるかどうかを考慮せず、意味のある概念スコアを計算する上で重要な要素である。
そこで本研究では,ラベルなし画像データを用いて容易に計算できる視覚手がかりを含むか否かを計測する視覚アクティベーションスコアを提案する。
計算された視覚アクティベーションスコアは、見えない概念をフィルタリングするために使用され、結果として視覚的に意味のある概念がセットされる。
その結果,提案する視覚アクティベーションスコアを概念フィルタリングに適用することで,ベースラインと比較して一貫して性能が向上することがわかった。
さらに,視覚的アクティベーションスコアを用いて,視覚的関連概念の選択に成功していることを示す。
関連論文リスト
- Concept Complement Bottleneck Model for Interpretable Medical Image Diagnosis [8.252227380729188]
本稿では,医用画像診断のための補完的ボトルネックモデルを提案する。
そこで本研究では,概念の相違点を抽出し,それぞれの注意チャンネルで概念をスコアリングするために,概念アダプタを利用することを提案する。
本モデルでは,概念検出と疾患診断の課題において,最先端の競争相手よりも優れていた。
論文 参考訳(メタデータ) (2024-10-20T16:52:09Z) - CusConcept: Customized Visual Concept Decomposition with Diffusion Models [13.95568624067449]
ベクトルを埋め込んだカスタマイズされた視覚概念を抽出する2段階のフレームワークCusConceptを提案する。
最初の段階では、CusConceptは語彙誘導概念分解機構を採用している。
第2段階では、生成した画像の忠実度と品質を高めるために、共同概念の洗練を行う。
論文 参考訳(メタデータ) (2024-10-01T04:41:44Z) - Towards Compositionality in Concept Learning [20.960438848942445]
既存の教師なし概念抽出手法では、構成的でない概念が見つかる。
これらの特性に従う概念を見つけるための合成概念抽出(CCE)を提案する。
CCEは、ベースラインよりも構成的な概念表現を見つけ、下流の4つの分類タスクでより良い精度を得る。
論文 参考訳(メタデータ) (2024-06-26T17:59:30Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Incremental Residual Concept Bottleneck Models [29.388549499546556]
Concept Bottleneck Models (CBM) は、ディープニューラルネットワークによって抽出されたブラックボックスの視覚表現を、解釈可能な概念のセットにマッピングする。
本稿では,概念完全性の課題を解決するために,インクリメンタル・Residual Concept Bottleneck Model (Res-CBM)を提案する。
提案手法は,任意のCBMの性能向上を目的としたポストホック処理法として,ユーザ定義の概念バンクに適用できる。
論文 参考訳(メタデータ) (2024-04-13T12:02:19Z) - Separable Multi-Concept Erasure from Diffusion Models [52.51972530398691]
大規模拡散モデルから安全でない概念を排除するために,分離可能なマルチコンセプト消去器(SepME)を提案する。
後者は最適化可能なモデルウェイトを分離し、各ウェイトインクリメントは特定の概念の消去に対応する。
広範囲にわたる実験は, 概念の排除, モデル性能の保存, 各種概念の消去・回復における柔軟性の確保に, アプローチの有効性を示すものである。
論文 参考訳(メタデータ) (2024-02-03T11:10:57Z) - Advancing Ante-Hoc Explainable Models through Generative Adversarial Networks [24.45212348373868]
本稿では,視覚的分類タスクにおけるモデル解釈可能性と性能を向上させるための新しい概念学習フレームワークを提案する。
本手法では, 教師なし説明生成器を一次分類器ネットワークに付加し, 対角訓練を利用する。
この研究は、タスク整合概念表現を用いた本質的に解釈可能なディープビジョンモデルを構築するための重要なステップを示す。
論文 参考訳(メタデータ) (2024-01-09T16:16:16Z) - ConceptBed: Evaluating Concept Learning Abilities of Text-to-Image
Diffusion Models [79.10890337599166]
本研究では,284のユニークな視覚概念と33Kの合成テキストプロンプトからなる大規模データセットであるConceptBedを紹介する。
我々は、対象、属性、スタイルのいずれかである視覚概念を評価し、また、構成性の4つの次元(計数、属性、関係、行動)を評価する。
私たちの結果は、概念を学ぶことと、既存のアプローチが克服に苦労する構成性を維持することのトレードオフを示しています。
論文 参考訳(メタデータ) (2023-06-07T18:00:38Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Visual Concepts Tokenization [65.61987357146997]
本稿では,教師なしトランスフォーマーに基づく視覚概念トークン化フレームワーク VCT を提案する。
これらの概念トークンを得るためには、概念トークン間の自己注意なしで画像トークン層から視覚情報を抽出するために、クロスアテンションのみを用いる。
さらに,異なる概念トークンが独立した視覚概念を表現することを容易にするために,概念分離損失を提案する。
論文 参考訳(メタデータ) (2022-05-20T11:25:31Z) - Interpretable Visual Reasoning via Induced Symbolic Space [75.95241948390472]
視覚的推論における概念誘導の問題,すなわち,画像に関連付けられた質問応答対から概念とその階層的関係を同定する。
我々はまず,オブジェクトレベルの視覚的特徴を持つ視覚的推論タスクを実行するために,オブジェクト指向合成注意モデル(OCCAM)という新しいフレームワークを設計する。
そこで我々は,対象の視覚的特徴と質問語の間の注意パターンから手がかりを用いて,対象と関係の概念を誘導する手法を考案した。
論文 参考訳(メタデータ) (2020-11-23T18:21:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。