論文の概要: A Graph-Based Framework for Interpretable Whole Slide Image Analysis
- arxiv url: http://arxiv.org/abs/2503.11846v2
- Date: Mon, 06 Oct 2025 20:40:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 15:38:19.977959
- Title: A Graph-Based Framework for Interpretable Whole Slide Image Analysis
- Title(参考訳): 全スライド画像解析のためのグラフベースフレームワーク
- Authors: Alexander Weers, Alexander H. Berger, Laurin Lux, Peter Schüffler, Daniel Rueckert, Johannes C. Paetzold,
- Abstract要約: 我々は,全スライディング画像を生物学的にインフォームドされたグラフ表現に変換するフレームワークを開発した。
我々のアプローチは、任意の格子ではなく、自然構造を尊重する組織領域からグラフノードを構築する。
がんのステージングと生存予測の課題に強いパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 86.37618055724441
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The histopathological analysis of whole-slide images (WSIs) is fundamental to cancer diagnosis but is a time-consuming and expert-driven process. While deep learning methods show promising results, dominant patch-based methods artificially fragment tissue, ignore biological boundaries, and produce black-box predictions. We overcome these limitations with a novel framework that transforms gigapixel WSIs into biologically-informed graph representations and is interpretable by design. Our approach builds graph nodes from tissue regions that respect natural structures, not arbitrary grids. We introduce an adaptive graph coarsening technique, guided by learned embeddings, to efficiently merge homogeneous regions while preserving diagnostically critical details in heterogeneous areas. Each node is enriched with a compact, interpretable feature set capturing clinically-motivated priors. A graph attention network then performs diagnosis on this compact representation. We demonstrate strong performance on challenging cancer staging and survival prediction tasks. Crucially, our resource-efficient model ($>$13x fewer parameters and $>$300x less data) achieves results competitive with a massive foundation model, while offering full interpretability through feature attribution. Our code is publicly available at https://github.com/HistoGraph31/pix2pathology.
- Abstract(参考訳): 全身スライディング画像(WSI)の病理組織学的解析は、がん診断の基礎であるが、時間を要する、専門家主導のプロセスである。
深層学習手法は有望な結果を示す一方で、優越的なパッチベースの手法は組織を人工的に断片化し、生物学的境界を無視し、ブラックボックス予測を生成する。
これらの制限を,ギガピクセルのWSIを生物学的にインフォームドされたグラフ表現に変換し,設計によって解釈可能な新しいフレームワークで克服する。
我々のアプローチは、任意の格子ではなく、自然構造を尊重する組織領域からグラフノードを構築する。
本研究では,異種領域の診断的重要な詳細を保存しつつ,同種領域を効率よくマージする適応的なグラフ粗大化手法を提案する。
各ノードには、臨床的に動機づけられた先行をキャプチャするコンパクトで解釈可能な機能セットが備わっている。
グラフ注意ネットワークは、このコンパクト表現の診断を行う。
がんのステージングと生存予測の課題に強いパフォーマンスを示す。
重要なことに、我々のリソース効率のモデル($13倍のパラメータと$300倍のデータ)は、機能属性による完全な解釈性を提供しながら、巨大な基盤モデルと競合する結果を得る。
私たちのコードはhttps://github.com/HistoGraph31/pix2pathologyで公開されています。
関連論文リスト
- A self-supervised framework for learning whole slide representations [52.774822784847565]
我々は、全スライド画像のギガピクセルスケールの自己スーパービジョンのためのSlide Pre-trained Transformer (SPT)を提案する。
バイオメディカル・マイクロスコープ・データセットを用いて,5つの診断課題におけるSPT視覚表現のベンチマークを行った。
論文 参考訳(メタデータ) (2024-02-09T05:05:28Z) - Graph-level Protein Representation Learning by Structure Knowledge
Refinement [50.775264276189695]
本稿では、教師なしの方法でグラフ全体の表現を学習することに焦点を当てる。
本稿では、データ構造を用いて、ペアが正か負かの確率を決定する構造知識精製(Structure Knowledge Refinement, SKR)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-05T09:05:33Z) - Explainable and Position-Aware Learning in Digital Pathology [0.0]
本研究は, 位置埋め込みとグラフアテンションを用いて, WSIsからがんの分類を行う。
提案手法とがん診断, グレーディングにおける先行手法との比較により, 性能改善が確認できた。
WSIsにおける癌領域の同定は、がん診断におけるもう一つの重要な課題である。
論文 参考訳(メタデータ) (2023-06-14T01:53:17Z) - Context-Aware Self-Supervised Learning of Whole Slide Images [0.0]
本研究では, 新たな2段階学習手法を提案する。
WSI内のすべての領域間の依存関係をキャプチャするグラフ表現は非常に直感的です。
スライド全体はグラフとして表示され、ノードはWSIのパッチに対応する。
提案したフレームワークは、前立腺癌と腎癌からのWSIを用いてテストされる。
論文 参考訳(メタデータ) (2023-06-07T20:23:05Z) - HistoTransfer: Understanding Transfer Learning for Histopathology [9.231495418218813]
我々は、ImageNetと病理組織データに基づいてトレーニングされたネットワークから抽出された特徴の性能を比較した。
より複雑なネットワークを用いて学習した機能が性能向上につながるかどうかを検討する。
論文 参考訳(メタデータ) (2021-06-13T18:55:23Z) - Learning Whole-Slide Segmentation from Inexact and Incomplete Labels
using Tissue Graphs [11.315178576537768]
グラフを用いた弱教師付きセマンティックセグメンテーション手法であるSegGiniを提案する。
SegGiniセグメントは、組織マイクロアレイ(TMA)から全スライド画像(WSI)まで、任意かつ大規模な画像です。
論文 参考訳(メタデータ) (2021-03-04T16:04:24Z) - Multi-Level Graph Convolutional Network with Automatic Graph Learning
for Hyperspectral Image Classification [63.56018768401328]
HSI分類のための自動グラフ学習法(MGCN-AGL)を用いたマルチレベルグラフ畳み込みネットワーク(GCN)を提案する。
空間的に隣接する領域における重要度を特徴付けるために注意機構を利用することで、最も関連性の高い情報を適応的に組み込んで意思決定を行うことができる。
MGCN-AGLは局所的に生成した表現表現に基づいて画像領域間の長距離依存性を符号化する。
論文 参考訳(メタデータ) (2020-09-19T09:26:20Z) - Graph Neural Networks for UnsupervisedDomain Adaptation of
Histopathological ImageAnalytics [22.04114134677181]
組織像解析のための教師なし領域適応のための新しい手法を提案する。
特徴空間に画像を埋め込むバックボーンと、ラベルで画像の監視信号をプロパゲートするグラフニューラルネットワーク層に基づいている。
実験では、4つの公開データセット上での最先端のパフォーマンスを評価する。
論文 参考訳(メタデータ) (2020-08-21T04:53:44Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Structured Landmark Detection via Topology-Adapting Deep Graph Learning [75.20602712947016]
解剖学的顔と医学的ランドマーク検出のための新しいトポロジ適応深層グラフ学習手法を提案する。
提案手法は局所像特徴と大域形状特徴の両方を利用するグラフ信号を構成する。
3つの公開顔画像データセット(WFLW、300W、COFW-68)と3つの現実世界のX線医学データセット(ケパロメトリ、ハンド、ペルビス)で実験を行った。
論文 参考訳(メタデータ) (2020-04-17T11:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。