論文の概要: Mammo-SAE: Interpreting Breast Cancer Concept Learning with Sparse Autoencoders
- arxiv url: http://arxiv.org/abs/2507.15227v1
- Date: Mon, 21 Jul 2025 03:59:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.250927
- Title: Mammo-SAE: Interpreting Breast Cancer Concept Learning with Sparse Autoencoders
- Title(参考訳): Mammo-SAE:スパースオートエンコーダを用いた乳癌概念学習の解釈
- Authors: Krishna Kanth Nakka,
- Abstract要約: 医療画像などの高分解能領域では、解釈可能性が重要である。
マンモCLIP解析による乳房画像へのスパースオートエンコーダ(SAE)による解釈性の導入
Mammo-CLIP にパッチレベルのtexttt-SAE をトレーニングし,臨床的に関連する乳房概念に関連する潜伏性特徴の同定と調査を行った。
- 参考スコア(独自算出の注目度): 7.23389716633927
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability is critical in high-stakes domains such as medical imaging, where understanding model decisions is essential for clinical adoption. In this work, we introduce Sparse Autoencoder (SAE)-based interpretability to breast imaging by analyzing {Mammo-CLIP}, a vision--language foundation model pretrained on large-scale mammogram image--report pairs. We train a patch-level \texttt{Mammo-SAE} on Mammo-CLIP to identify and probe latent features associated with clinically relevant breast concepts such as \textit{mass} and \textit{suspicious calcification}. Our findings reveal that top activated class level latent neurons in the SAE latent space often tend to align with ground truth regions, and also uncover several confounding factors influencing the model's decision-making process. Additionally, we analyze which latent neurons the model relies on during downstream finetuning for improving the breast concept prediction. This study highlights the promise of interpretable SAE latent representations in providing deeper insight into the internal workings of foundation models at every layer for breast imaging.
- Abstract(参考訳): 解釈可能性(英語版)は、臨床応用においてモデル決定の理解が不可欠である医用画像のような高精細な領域において重要である。
本研究では,乳房画像に対するSparse Autoencoder (SAE) ベースの解釈可能性について,大規模なマンモグラム画像に基づいて事前訓練した視覚言語基盤モデルであるMammo-CLIPを解析して紹介する。
Mammo-CLIP にパッチレベル \texttt{Mammo-SAE} をトレーニングし,臨床に関係のある乳腺概念である \textit{mass} や \textit{suspicious calcification} を同定し,検討した。
以上の結果から,SAE潜伏空間の上位活動型クラスレベル潜伏ニューロンは,しばしば地上の真理領域と整合する傾向があり,また,モデル決定過程に影響を及ぼすいくつかの要因も明らかとなった。
さらに、乳房概念予測を改善するために、下流ファインタニング中にモデルが依存する潜伏ニューロンを分析した。
本研究は, 乳房画像のすべての層における基礎モデルの内部構造を深く把握する上で, 解釈可能なSAE潜伏表現の存在を強調した。
関連論文リスト
- PathSegDiff: Pathology Segmentation using Diffusion model representations [63.20694440934692]
そこで我々は,Latent Diffusion Models (LDMs) を事前学習した特徴抽出器として活用する,病理組織像分割の新しい手法であるPathSegDiffを提案する。
本手法は,H&E染色組織像から多彩な意味情報を抽出するために,自己教師型エンコーダによって誘導される病理特異的LCMを用いる。
本実験は,BCSSおよびGlaSデータセットにおける従来の手法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2025-04-09T14:58:21Z) - Unleashing the Potential of the Diffusion Model in Few-shot Semantic Segmentation [56.87049651707208]
セマンティックはインコンテクストタスクへと発展し、一般化的セグメンテーションモデルを評価する上で重要な要素となった。
我々の最初の焦点は、クエリイメージとサポートイメージの相互作用を容易にする方法を理解することであり、その結果、自己注意フレームワーク内のKV融合法が提案される。
そこで我々はDiffewSというシンプルで効果的なフレームワークを構築し,従来の潜在拡散モデルの生成フレームワークを最大限に保持する。
論文 参考訳(メタデータ) (2024-10-03T10:33:49Z) - Analyzing the Effect of $k$-Space Features in MRI Classification Models [0.0]
医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
論文 参考訳(メタデータ) (2024-09-20T15:43:26Z) - Interpretable breast cancer classification using CNNs on mammographic images [0.0]
本研究は,マンモグラム分類のための畳み込みニューラルネットワーク(CNN)の決定過程に関する知見を得る必要性に対処する。
マンモグラフィー画像解析学会(MIAS)データセットをトレーニングしたCNNに対して,LIME,Grad-CAM,Kernel SHAPといったポストホック解釈技術を比較した。
以上の結果から,特にGrad-CAMは,正常,良性,悪性の乳房組織に特徴的なパターンを呈し,CNNの行動に関する包括的知見を提供することが明らかとなった。
論文 参考訳(メタデータ) (2024-08-23T15:25:42Z) - SAM-Driven Weakly Supervised Nodule Segmentation with Uncertainty-Aware Cross Teaching [13.5553526185399]
自動結節分割は超音波画像におけるコンピュータ支援診断に不可欠である。
近年、SAMのようなセグメンテーション基礎モデルは、自然画像に顕著な一般化性を示している。
本研究では, セグメンテーション基盤モデルを利用して擬似ラベルを生成する, 弱教師付きフレームワークを考案する。
論文 参考訳(メタデータ) (2024-07-18T14:27:54Z) - Enhancing AI Diagnostics: Autonomous Lesion Masking via Semi-Supervised Deep Learning [1.4053129774629076]
本研究では,乳房超音波(US)画像における乳房病変の鑑別を目的とした,関心領域(ROI)を自律的に生成することを目的とした,教師なし領域適応手法を提案する。
我々の半教師付き学習アプローチは、真のアノテーションを持つ小さな母乳USデータセットで訓練された原始モデルを利用する。
このモデルはドメイン適応タスクのために反復的に洗練され、当社のプライベートな無注釈乳房データセットに擬似マスクを生成します。
論文 参考訳(メタデータ) (2024-04-18T18:25:00Z) - Morphology-Enhanced CAM-Guided SAM for weakly supervised Breast Lesion Segmentation [7.747608350830482]
早期乳房超音波画像における病変の断片化を弱体化するための新しい枠組みを提案する。
本手法は,形態的拡張とクラスアクティベーションマップ(CAM)誘導局所化を用いた。
このアプローチはピクセルレベルのアノテーションを必要としないため、データアノテーションのコストが削減される。
論文 参考訳(メタデータ) (2023-11-18T22:06:04Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - BI-RADS-Net: An Explainable Multitask Learning Approach for Cancer
Diagnosis in Breast Ultrasound Images [69.41441138140895]
本稿では,乳房超音波画像における癌検出のための新しい深層学習手法であるBI-RADS-Netを紹介する。
提案手法は, 臨床診断に関連する特徴表現を学習することにより, 乳腺腫瘍の説明と分類を行うタスクを取り入れたものである。
臨床医が医療現場で診断・報告するために使用する形態学的特徴の観点から予測(良性または悪性)の説明が提供される。
論文 参考訳(メタデータ) (2021-10-05T19:14:46Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Interpretable Deep Models for Cardiac Resynchronisation Therapy Response
Prediction [8.152884957975354]
可変オートエンコーダ(VAE)に基づく画像分類のための新しいフレームワークを提案する。
VAEは、既存の臨床知識から引き出された説明に基づいて潜伏空間を解体する。
心臓磁気共鳴画像による心臓再同期療法(CRT)に対する心筋症の反応予測の枠組みを実証した。
論文 参考訳(メタデータ) (2020-06-24T15:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。