論文の概要: Integrating Multi-scale and Multi-filtration Topological Features for Medical Image Classification
- arxiv url: http://arxiv.org/abs/2512.07190v1
- Date: Mon, 08 Dec 2025 06:02:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.728015
- Title: Integrating Multi-scale and Multi-filtration Topological Features for Medical Image Classification
- Title(参考訳): 医用画像分類のためのマルチスケール・マルチフィルタトポロジ的特徴の統合
- Authors: Pengfei Gu, Huimin Li, Haoteng Tang, Dongkuan, Xu, Erik Enriquez, DongChul Kim, Bin Fu, Danny Z. Chen,
- Abstract要約: ディープニューラルネットワークは、医用画像分類において顕著な性能を示している。
マルチスケールおよびマルチフィルタ型永続的なトポロジ特徴を抽出する新しいトポロジ誘導型分類フレームワークを提案する。
我々のアプローチは、複雑な解剖学的構造を認識するためのモデルの能力を高める。
- 参考スコア(独自算出の注目度): 20.820287362872975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern deep neural networks have shown remarkable performance in medical image classification. However, such networks either emphasize pixel-intensity features instead of fundamental anatomical structures (e.g., those encoded by topological invariants), or they capture only simple topological features via single-parameter persistence. In this paper, we propose a new topology-guided classification framework that extracts multi-scale and multi-filtration persistent topological features and integrates them into vision classification backbones. For an input image, we first compute cubical persistence diagrams (PDs) across multiple image resolutions/scales. We then develop a ``vineyard'' algorithm that consolidates these PDs into a single, stable diagram capturing signatures at varying granularities, from global anatomy to subtle local irregularities that may indicate early-stage disease. To further exploit richer topological representations produced by multiple filtrations, we design a cross-attention-based neural network that directly processes the consolidated final PDs. The resulting topological embeddings are fused with feature maps from CNNs or Transformers. By integrating multi-scale and multi-filtration topologies into an end-to-end architecture, our approach enhances the model's capacity to recognize complex anatomical structures. Evaluations on three public datasets show consistent, considerable improvements over strong baselines and state-of-the-art methods, demonstrating the value of our comprehensive topological perspective for robust and interpretable medical image classification.
- Abstract(参考訳): 現代のディープニューラルネットワークは、医用画像分類において顕著な性能を示している。
しかし、そのようなネットワークは、基本的な解剖学的構造(例えば、位相不変量によって符号化されたもの)の代わりにピクセル強度の特徴を強調するか、あるいは単一のパラメータ永続性によって単純な位相的特徴のみをキャプチャする。
本稿では,マルチスケールおよびマルチフィルタの永続的なトポロジ特徴を抽出し,それらを視覚分類のバックボーンに統合する新しいトポロジ誘導型分類フレームワークを提案する。
入力画像に対して、まず複数の画像解像度/スケールにわたる3次永続図(PD)を計算する。
次に、これらのPDを1つの安定な図形にまとめる‘vineyard'アルゴリズムを開発し、グローバルな解剖学から早期疾患を示す微妙な局所異常まで、様々な粒度でシグネチャをキャプチャする。
複数のフィルタによって生成されるよりリッチなトポロジカル表現をさらに活用するために、我々は、統合された最終PDを直接処理するクロスアテンションベースのニューラルネットワークを設計する。
結果として得られるトポロジ的埋め込みは、CNNやTransformerの機能マップと融合している。
マルチスケールおよびマルチフィルタトポロジをエンドツーエンドアーキテクチャに統合することにより、複雑な解剖学的構造を認識するためのモデルの能力を高めることができる。
3つの公開データセットの評価は、強いベースラインと最先端の手法よりも一貫した顕著な改善を示し、堅牢で解釈可能な医用画像分類に対する包括的トポロジカルな視点の価値を示している。
関連論文リスト
- Large Language Model Evaluated Stand-alone Attention-Assisted Graph Neural Network with Spatial and Structural Information Interaction for Precise Endoscopic Image Segmentation [16.773882069530426]
本研究では,空間グラフと構造グラフを融合したFOCUS-Medを提案する。
FOCUS-Medは、Dual Graph Convolutional Network (Dual-GCN)モジュールを統合し、コンテキスト空間および位相構造上の依存関係をキャプチャする。
公開ベンチマークの実験では、FOCUS-Medが5つの主要な指標で最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2025-08-09T15:53:19Z) - A Graph-Based Framework for Interpretable Whole Slide Image Analysis [86.37618055724441]
我々は,全スライディング画像を生物学的にインフォームドされたグラフ表現に変換するフレームワークを開発した。
我々のアプローチは、任意の格子ではなく、自然構造を尊重する組織領域からグラフノードを構築する。
がんのステージングと生存予測の課題に強いパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-03-14T20:15:04Z) - PHG-Net: Persistent Homology Guided Medical Image Classification [14.450329809640422]
医用画像分類のためのトポロジ的特徴を探索する永続的ホモロジーガイド手法(PHG-Net)を提案する。
入力画像に対して、まずその3次永続図を計算し、トポロジ的特徴をベクトル表現に抽出する。
抽出したトポロジ的特徴は、特徴融合のためにCNNやTransformerによって生成された特徴マップに組み込まれる。
論文 参考訳(メタデータ) (2023-11-28T21:34:06Z) - Dual-channel Prototype Network for few-shot Classification of
Pathological Images [0.7562219957261347]
そこで我々はDual-channel Prototype Network (DCPN) を導入し, 限られたサンプルを用いた病理像の分類に挑戦する。
DCPNはMraamid Vision Transformerフレームワークを拡張して、自己教師付き学習を通じて数ショットの分類を行い、畳み込みニューラルネットワークと統合する。
この組み合わせは、マルチスケールで高精度な病理特徴を抽出するデュアルチャネルアーキテクチャを形成する。
論文 参考訳(メタデータ) (2023-11-14T03:03:21Z) - Asymmetric Co-Training with Explainable Cell Graph Ensembling for
Histopathological Image Classification [28.949527817202984]
本稿では,深部グラフ畳み込みニューラルネットワークと畳み込みニューラルネットワークを組み合わせた非対称協調学習フレームワークを提案する。
セルグラフデータを扱う14層ディープグラフ畳み込みネットワークを構築した。
プライベートLUAD7Cおよびパブリック大腸癌データセットに対するアプローチについて検討した。
論文 参考訳(メタデータ) (2023-08-24T12:27:03Z) - NexToU: Efficient Topology-Aware U-Net for Medical Image Segmentation [3.8336080345323227]
CNNとTransformerの派生型は、主要な医療画像セグメンテーションバックボーンとして登場した。
医用画像分割のための新しいハイブリッドアーキテクチャであるNexToUを提案する。
我々の手法は、他の最先端(SOTA)アーキテクチャよりも一貫して優れています。
論文 参考訳(メタデータ) (2023-05-25T10:18:57Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。