論文の概要: CountXplain: Interpretable Cell Counting with Prototype-Based Density Map Estimation
- arxiv url: http://arxiv.org/abs/2511.19686v1
- Date: Mon, 24 Nov 2025 20:47:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.152187
- Title: CountXplain: Interpretable Cell Counting with Prototype-Based Density Map Estimation
- Title(参考訳): CountXplain: プロトタイプベース密度マップ推定による解釈可能なセル数
- Authors: Abdurahman Ali Mohammed, Wallapak Tavanapong, Catherine Fonder, Donald S. Sakaguchi,
- Abstract要約: 本稿では,密度マップ推定による解釈可能なセルカウントの試作手法を提案する。
提案手法は, プロトタイプ層を密度推定ネットワークに統合し, モデルがセルと背景アーティファクトの両方の視覚的パターンを学習できるようにする。
- 参考スコア(独自算出の注目度): 1.609940380983903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cell counting in biomedical imaging is pivotal for various clinical applications, yet the interpretability of deep learning models in this domain remains a significant challenge. We propose a novel prototype-based method for interpretable cell counting via density map estimation. Our approach integrates a prototype layer into the density estimation network, enabling the model to learn representative visual patterns for both cells and background artifacts. The learned prototypes were evaluated through a survey of biologists, who confirmed the relevance of the visual patterns identified, further validating the interpretability of the model. By generating interpretations that highlight regions in the input image most similar to each prototype, our method offers a clear understanding of how the model identifies and counts cells. Extensive experiments on two public datasets demonstrate that our method achieves interpretability without compromising counting effectiveness. This work provides researchers and clinicians with a transparent and reliable tool for cell counting, potentially increasing trust and accelerating the adoption of deep learning in critical biomedical applications. Code is available at https://github.com/NRT-D4/CountXplain.
- Abstract(参考訳): バイオメディカルイメージングにおける細胞カウントは様々な臨床応用において重要であるが、この領域における深層学習モデルの解釈性は依然として大きな課題である。
本稿では,密度マップ推定による解釈可能なセルカウントの試作手法を提案する。
提案手法は, プロトタイプ層を密度推定ネットワークに統合し, モデルがセルと背景アーティファクトの両方の視覚的パターンを学習できるようにする。
学習したプロトタイプは、生物学者の調査によって評価され、識別された視覚パターンの関連性を確認し、モデルの解釈可能性をさらに検証した。
入力画像中の領域を各プロトタイプと最もよく類似した解釈を生成することにより,モデルが細胞を識別しカウントする方法を明確に理解する。
2つの公開データセットに対する広範囲な実験により,提案手法は計算効率を損なうことなく解釈可能であることが示された。
この研究は、研究者や臨床医に、細胞カウントのための透明で信頼性の高いツールを提供し、信頼を高め、重要なバイオメディカル応用におけるディープラーニングの採用を加速させる可能性がある。
コードはhttps://github.com/NRT-D4/CountXplain.comで入手できる。
関連論文リスト
- PiPViT: Patch-based Visual Interpretable Prototypes for Retinal Image Analysis [0.13406576408866772]
Patch-based Visual Interpretable Prototypes は,画像認識のための本質的に解釈可能な原型モデルである。
PiPViTは、パッチ間の長距離依存関係をキャプチャして、堅牢で人間の解釈可能なプロトタイプを学ぶ。
網膜 OCT 画像分類における PiPViT の評価を行った。
論文 参考訳(メタデータ) (2025-06-12T12:58:43Z) - PathSegDiff: Pathology Segmentation using Diffusion model representations [63.20694440934692]
そこで我々は,Latent Diffusion Models (LDMs) を事前学習した特徴抽出器として活用する,病理組織像分割の新しい手法であるPathSegDiffを提案する。
本手法は,H&E染色組織像から多彩な意味情報を抽出するために,自己教師型エンコーダによって誘導される病理特異的LCMを用いる。
本実験は,BCSSおよびGlaSデータセットにおける従来の手法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2025-04-09T14:58:21Z) - UniCell: Universal Cell Nucleus Classification via Prompt Learning [76.11864242047074]
ユニバーサル細胞核分類フレームワーク(UniCell)を提案する。
異なるデータセットドメインから対応する病理画像のカテゴリを均一に予測するために、新しいプロンプト学習機構を採用している。
特に,本フレームワークでは,原子核検出と分類のためのエンドツーエンドアーキテクチャを採用し,フレキシブルな予測ヘッドを用いて様々なデータセットを適応する。
論文 参考訳(メタデータ) (2024-02-20T11:50:27Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Tertiary Lymphoid Structures Generation through Graph-based Diffusion [54.37503714313661]
本研究では,最先端のグラフベース拡散モデルを用いて生物学的に意味のある細胞グラフを生成する。
本研究では, グラフ拡散モデルを用いて, 3次リンパ構造(TLS)の分布を正確に学習できることを示す。
論文 参考訳(メタデータ) (2023-10-10T14:37:17Z) - DeGPR: Deep Guided Posterior Regularization for Multi-Class Cell
Detection and Counting [14.222014969736993]
マルチクラス細胞検出とカウントは多くの病理診断に必須の課題である。
本稿では,細胞間における識別的特徴の活用を誘導することにより,物体検出を支援するガイド付き後部正則化(DeGPR)を提案する。
2つの公開データセットと、コントリビュートした新しいデータセットであるMuCeD上で、私たちのモデルを検証します。
論文 参考訳(メタデータ) (2023-04-03T06:25:45Z) - CCRL: Contrastive Cell Representation Learning [0.0]
本稿では,H&Eスライドにおけるセル識別のためのコントラストセル表現学習(CCRL)モデルを提案する。
このモデルは、組織の種類によって異なる2つのデータセットにまたがる大きなマージンで、現在利用可能なすべてのセルクラスタリングモデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-08-12T18:12:03Z) - Self-Supervised Graph Representation Learning for Neuronal Morphologies [75.38832711445421]
ラベルのないデータセットから3次元神経形態の低次元表現を学習するためのデータ駆動型アプローチであるGraphDINOを提案する。
2つの異なる種と複数の脳領域において、この方法では、専門家による手動の特徴に基づく分類と同程度に形態学的細胞型クラスタリングが得られることを示す。
提案手法は,大規模データセットにおける新しい形態的特徴や細胞型の発見を可能にする可能性がある。
論文 参考訳(メタデータ) (2021-12-23T12:17:47Z) - Towards Interpretable Attention Networks for Cervical Cancer Analysis [24.916577293892182]
複数の頸腺細胞の画像分類における最先端ディープラーニングモデルの評価を行った。
細胞群から重要な特徴を抽出するための残チャンネルアテンションモデルの有効性を示す。
また、子宮頸部細胞の分類に対処するための解釈可能なモデルも提供する。
論文 参考訳(メタデータ) (2021-05-27T13:28:24Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。