論文の概要: CytoSAE: Interpretable Cell Embeddings for Hematology
- arxiv url: http://arxiv.org/abs/2507.12464v1
- Date: Wed, 16 Jul 2025 17:59:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.514283
- Title: CytoSAE: Interpretable Cell Embeddings for Hematology
- Title(参考訳): CytoSAE:血液学のための解釈可能な細胞埋め込み
- Authors: Muhammed Furkan Dasdelen, Hyesu Lim, Michele Buck, Katharina S. Götze, Carsten Marr, Steffen Schneider,
- Abstract要約: スパースオートエンコーダ (SAE) はトランスフォーマーベース基礎モデルの機械的解釈可能性のための有望なツールとして登場した。
本研究では,4万枚以上の末梢血単細胞画像に基づいて,スパースオートエンコーダCytoSAEを提案する。
我々は,CytoSAEの概念が,サブセルレベルで説明可能性を提供しながら,最先端技術に匹敵する性能に達することを示す。
- 参考スコア(独自算出の注目度): 3.4855184894829594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse autoencoders (SAEs) emerged as a promising tool for mechanistic interpretability of transformer-based foundation models. Very recently, SAEs were also adopted for the visual domain, enabling the discovery of visual concepts and their patch-wise attribution to tokens in the transformer model. While a growing number of foundation models emerged for medical imaging, tools for explaining their inferences are still lacking. In this work, we show the applicability of SAEs for hematology. We propose CytoSAE, a sparse autoencoder which is trained on over 40,000 peripheral blood single-cell images. CytoSAE generalizes to diverse and out-of-domain datasets, including bone marrow cytology, where it identifies morphologically relevant concepts which we validated with medical experts. Furthermore, we demonstrate scenarios in which CytoSAE can generate patient-specific and disease-specific concepts, enabling the detection of pathognomonic cells and localized cellular abnormalities at the patch level. We quantified the effect of concepts on a patient-level AML subtype classification task and show that CytoSAE concepts reach performance comparable to the state-of-the-art, while offering explainability on the sub-cellular level. Source code and model weights are available at https://github.com/dynamical-inference/cytosae.
- Abstract(参考訳): スパースオートエンコーダ (SAE) はトランスフォーマーベース基礎モデルの機械的解釈可能性のための有望なツールとして登場した。
最近では、SAEも視覚領域として採用され、視覚概念の発見と、トランスフォーマーモデルにおけるトークンに対するパッチワイドな属性を実現している。
医療画像の基盤モデルが増えている一方で、それらの推論を説明するためのツールはまだ不足している。
本研究は血液学におけるSAEsの適用性を示す。
本研究では,4万枚以上の末梢血単細胞画像に基づいて,スパースオートエンコーダCytoSAEを提案する。
CytoSAEは、骨髄細胞診を含む多種多様なドメイン外のデータセットに一般化し、我々が医療専門家に検証した形態学的に関連する概念を特定します。
さらに,CytoSAEが患者特異的および疾患特異的な概念を創出し,病原性細胞の検出とパッチレベルでの局所的な細胞異常の検出を可能にするシナリオを実証した。
我々は,患者レベルのAMLサブタイプ分類課題における概念の効果を定量化し,CytoSAE概念が細胞レベルで説明可能性を提供しながら,最先端技術に匹敵する性能に達することを示す。
ソースコードとモデルの重み付けはhttps://github.com/dynamical-inference/cytosaeで確認できる。
関連論文リスト
- Towards generating more interpretable counterfactuals via concept vectors: a preliminary study on chest X-rays [46.667021835430155]
我々は、臨床概念を生成モデルの潜在空間にマッピングし、概念活性化ベクトル(CAV)を同定する。
抽出された概念はデータセット全体にわたって安定しており、臨床的に関連する特徴を強調する視覚的説明を可能にする。
胸部X線検査の予備的結果から, 胸部X線検査は, 心筋症などの大きな病態を呈するが, より小さな病態はいまだに困難である。
論文 参考訳(メタデータ) (2025-06-04T15:23:12Z) - CytoFM: The first cytology foundation model [3.591868126270513]
本稿では,デジタル細胞学のための初の自己教師型基礎モデルであるCytoFMを紹介する。
我々はCytoFMをさまざまなデータセットで事前訓練し、堅牢で転送可能な表現を学習する。
以上の結果から,CytoFMは3つの下流課題のうち2つの課題において,病理組織学で事前訓練された既存の基礎モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2025-04-18T01:37:50Z) - Fine-tuning Vision Language Models with Graph-based Knowledge for Explainable Medical Image Analysis [44.38638601819933]
現在の糖尿病網膜症(DR)のステージングモデルはほとんど解釈できない。
本稿では,グラフ表現学習を視覚言語モデル(VLM)と統合し,説明可能なDR診断を実現する手法を提案する。
論文 参考訳(メタデータ) (2025-03-12T20:19:07Z) - PathVG: A New Benchmark and Dataset for Pathology Visual Grounding [45.21597220882424]
そこで我々はPathVG(Pathology Visual Grounding)と呼ばれる新しいベンチマークを提案する。
実験の結果,病理表現の根底にある暗黙的な情報に最大の課題があることが判明した。
提案手法は,PathVGベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2025-02-28T09:13:01Z) - Unified Representation of Genomic and Biomedical Concepts through Multi-Task, Multi-Source Contrastive Learning [45.6771125432388]
言語モデル(genEREL)を用いたジェノミクス表現について紹介する。
GENERELは遺伝学と生物医学の知識基盤を橋渡しするために設計されたフレームワークである。
本実験は,SNPと臨床概念のニュアンス関係を効果的に把握するgenERELの能力を実証するものである。
論文 参考訳(メタデータ) (2024-10-14T04:19:52Z) - Counterfactual Explanations for Medical Image Classification and Regression using Diffusion Autoencoder [38.81441978142279]
生成モデルの潜在空間を直接操作する新しい手法,特に拡散オートエンコーダ(DAE)を提案する。
このアプローチは、対実的説明(CE)の生成を可能にすることによって、固有の解釈可能性を提供する
これらの潜在表現は、脊椎圧迫骨折(VCF)や糖尿病網膜症(DR)などの病態の医学的分類と経時的回帰に有用であることを示す。
論文 参考訳(メタデータ) (2024-08-02T21:01:30Z) - Learning biologically relevant features in a pathology foundation model using sparse autoencoders [2.5919097694815365]
我々は、病理予知基礎モデルの埋め込みについてスパースオートエンコーダを訓練した。
Sparse Autoencoderの機能は, 解釈可能な, 単意味的な生物学的概念を表す。
論文 参考訳(メタデータ) (2024-07-15T15:03:01Z) - Tertiary Lymphoid Structures Generation through Graph-based Diffusion [54.37503714313661]
本研究では,最先端のグラフベース拡散モデルを用いて生物学的に意味のある細胞グラフを生成する。
本研究では, グラフ拡散モデルを用いて, 3次リンパ構造(TLS)の分布を正確に学習できることを示す。
論文 参考訳(メタデータ) (2023-10-10T14:37:17Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Modeling Dense Multimodal Interactions Between Biological Pathways and Histology for Survival Prediction [3.2274401541163322]
本稿では,パスとヒストロジーパッチトークン間の相互作用をモデル化できるメモリ効率の良いマルチモーダルトランスを提案する。
提案モデルであるSURVPATHは,非モーダルベースラインとマルチモーダルベースラインの両方に対して評価した場合に,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-04-13T21:02:32Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - On Interpretability of Deep Learning based Skin Lesion Classifiers using
Concept Activation Vectors [6.188009802619095]
メラノーマ, メラノーマ, セボリックケラトーシスの3種類の皮膚腫瘍の分類には, 十分に訓練された高性能ニューラルネットワークを用いている。
概念活性化ベクトル(CAV)の助けを借りて、人間の理解可能な概念をRECOD画像分類モデルにマッピングする
論文 参考訳(メタデータ) (2020-05-05T08:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。