論文の概要: CoPA: Hierarchical Concept Prompting and Aggregating Network for Explainable Diagnosis
- arxiv url: http://arxiv.org/abs/2510.03767v1
- Date: Sat, 04 Oct 2025 10:29:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.240808
- Title: CoPA: Hierarchical Concept Prompting and Aggregating Network for Explainable Diagnosis
- Title(参考訳): CoPA: 説明可能な診断のための階層的概念プロンプトと集約ネットワーク
- Authors: Yiheng Dong, Yi Lin, Xin Yang,
- Abstract要約: Concept Prompting and Aggregating (CoPA)は、プロンプトガイダンスの下で多層概念をキャプチャするために設計された新しいフレームワークである。
各レイヤからの視覚表現は、テキストの概念表現と整合するように集約される。
CoPAは3つのパブリックデータセット上で最先端のメソッドよりも優れています。
- 参考スコア(独自算出の注目度): 8.56688324078793
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The transparency of deep learning models is essential for clinical diagnostics. Concept Bottleneck Model provides clear decision-making processes for diagnosis by transforming the latent space of black-box models into human-understandable concepts. However, concept-based methods still face challenges in concept capture capabilities. These methods often rely on encode features solely from the final layer, neglecting shallow and multiscale features, and lack effective guidance in concept encoding, hindering fine-grained concept extraction. To address these issues, we introduce Concept Prompting and Aggregating (CoPA), a novel framework designed to capture multilayer concepts under prompt guidance. This framework utilizes the Concept-aware Embedding Generator (CEG) to extract concept representations from each layer of the visual encoder. Simultaneously, these representations serve as prompts for Concept Prompt Tuning (CPT), steering the model towards amplifying critical concept-related visual cues. Visual representations from each layer are aggregated to align with textual concept representations. With the proposed method, valuable concept-wise information in the images is captured and utilized effectively, thus improving the performance of concept and disease prediction. Extensive experimental results demonstrate that CoPA outperforms state-of-the-art methods on three public datasets. Code is available at https://github.com/yihengd/CoPA.
- Abstract(参考訳): 深層学習モデルの透明性は臨床診断に不可欠である。
概念ボトルネックモデルは、ブラックボックスモデルの潜在空間を人間の理解可能な概念に変換することによって、診断のための明確な意思決定プロセスを提供する。
しかし、概念に基づく手法は、概念キャプチャー能力の課題に直面している。
これらの手法は、しばしば最終層からのみエンコード機能に依存し、浅層とマルチスケールの機能を無視し、概念符号化における効果的なガイダンスを欠き、きめ細かい概念抽出を妨げる。
このような問題に対処するために,我々は,複数層の概念を即時誘導でキャプチャする新しいフレームワークであるConcept Prompting and Aggregating (CoPA)を紹介した。
このフレームワークは、概念認識埋め込みジェネレータ(CEG)を使用して、視覚エンコーダの各レイヤから概念表現を抽出する。
同時に、これらの表現はコンセプト・プロンプト・チューニング(CPT)のプロンプトとして機能し、重要な概念に関連した視覚的手がかりを増幅するためにモデルを操る。
各レイヤからの視覚表現は、テキストの概念表現と整合するように集約される。
提案手法では,画像中の貴重な概念情報を取得し,有効利用することにより,概念と疾患予測の性能を向上させることができる。
大規模な実験結果から、CoPAは3つの公開データセット上で最先端の手法よりも優れています。
コードはhttps://github.com/yihengd/CoPA.comで入手できる。
関連論文リスト
- Mod-Adapter: Tuning-Free and Versatile Multi-concept Personalization via Modulation Adapter [57.49476151976054]
テストタイムの微調整なしにオブジェクトと抽象概念を効果的にカスタマイズできるマルチコンセプトパーソナライズのためのチューニング不要な手法を提案する。
本手法は, 定量的, 質的, 人的評価によって支援された多概念パーソナライゼーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2025-05-24T09:21:32Z) - OmniPrism: Learning Disentangled Visual Concept for Image Generation [57.21097864811521]
創造的な視覚概念の生成は、しばしば関連する結果を生み出すために参照イメージ内の特定の概念からインスピレーションを引き出す。
我々は,創造的画像生成のための視覚的概念分離手法であるOmniPrismを提案する。
提案手法は,自然言語で案内される不整合概念表現を学習し,これらの概念を組み込むために拡散モデルを訓練する。
論文 参考訳(メタデータ) (2024-12-16T18:59:52Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - ConceptExpress: Harnessing Diffusion Models for Single-image Unsupervised Concept Extraction [20.43411883845885]
本研究では,非教師付き概念抽出(UCE)という,概念の人間的知識のない非教師付き概念抽出手法を提案する。
複数の概念を含むイメージを与えられたタスクは、事前訓練された拡散モデルから既存の知識のみに依存する個々の概念を抽出し、再現することを目的としている。
本稿では,事前学習した拡散モデル固有の能力を2つの側面に解き放つことで,UCEに対処するConceptExpressを提案する。
論文 参考訳(メタデータ) (2024-07-09T17:50:28Z) - Incremental Residual Concept Bottleneck Models [29.388549499546556]
Concept Bottleneck Models (CBM) は、ディープニューラルネットワークによって抽出されたブラックボックスの視覚表現を、解釈可能な概念のセットにマッピングする。
本稿では,概念完全性の課題を解決するために,インクリメンタル・Residual Concept Bottleneck Model (Res-CBM)を提案する。
提案手法は,任意のCBMの性能向上を目的としたポストホック処理法として,ユーザ定義の概念バンクに適用できる。
論文 参考訳(メタデータ) (2024-04-13T12:02:19Z) - Understanding Multimodal Deep Neural Networks: A Concept Selection View [29.08342307127578]
概念に基づくモデルは、ディープニューラルネットワークによって抽出されたブラックボックスの視覚表現を、人間の理解可能な概念のセットにマッピングする。
人間の先入観を導入することなくコア概念をマイニングするための2段階概念選択モデル(CSM)を提案する。
提案手法は,エンドツーエンドのブラックボックスモデルに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2024-04-13T11:06:49Z) - Coarse-to-Fine Concept Bottleneck Models [9.910980079138206]
この研究は、アンテホック解釈可能性、特に概念ボトルネックモデル(CBM)をターゲットにしている。
我々のゴールは、人間の理解可能な概念を2段階の粒度で、高度に解釈可能な意思決定プロセスを認めるフレームワークを設計することである。
この枠組みでは、概念情報は全体像と一般的な非構造概念の類似性にのみ依存せず、画像シーンのパッチ固有の領域に存在するより粒度の細かい概念情報を発見・活用するために概念階層の概念を導入している。
論文 参考訳(メタデータ) (2023-10-03T14:57:31Z) - Visual Concepts Tokenization [65.61987357146997]
本稿では,教師なしトランスフォーマーに基づく視覚概念トークン化フレームワーク VCT を提案する。
これらの概念トークンを得るためには、概念トークン間の自己注意なしで画像トークン層から視覚情報を抽出するために、クロスアテンションのみを用いる。
さらに,異なる概念トークンが独立した視覚概念を表現することを容易にするために,概念分離損失を提案する。
論文 参考訳(メタデータ) (2022-05-20T11:25:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。