論文の概要: GrapHist: Graph Self-Supervised Learning for Histopathology
- arxiv url: http://arxiv.org/abs/2603.00143v1
- Date: Tue, 24 Feb 2026 12:11:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.052945
- Title: GrapHist: Graph Self-Supervised Learning for Histopathology
- Title(参考訳): GrapHist: 病理学のためのグラフによる自己監督型学習
- Authors: Sevda Öğüt, Cédric Vincent-Cuaz, Natalia Dubljevic, Carlos Hurtado, Vaishnavi Subramanian, Pascal Frossard, Dorina Thanou,
- Abstract要約: 病理組織学のためのグラフベースの自己教師型学習フレームワークであるGrapHistを紹介する。
GrapHistは、さまざまな下流タスクを可能にする一般化可能で構造的にインフォームドされた埋め込みを学ぶ。
以上の結果から,GrapHistは,スライド,領域ハンギング,セルレベルのタスクにおいて,視覚ベースのタスクと比較して,競争性能が向上していることがわかった。
- 参考スコア(独自算出の注目度): 27.886002403669693
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised vision models have achieved notable success in digital pathology. However, their domain-agnostic transformer architectures are not originally designed to account for fundamental biological elements of histopathology images, namely cells and their complex interactions. In this work, we hypothesize that a biologically-informed modeling of tissues as cell graphs offers a more efficient representation learning. Thus, we introduce GrapHist, a novel graph-based self-supervised learning framework for histopathology, which learns generalizable and structurally-informed embeddings that enable diverse downstream tasks. GrapHist integrates masked autoencoders and heterophilic graph neural networks that are explicitly designed to capture the heterogeneity of tumor microenvironments. We pre-train GrapHist on a large collection of 11 million cell graphs derived from breast tissues and evaluate its transferability across in- and out-of-domain benchmarks. Our results show that GrapHist achieves competitive performance compared to its vision-based counterparts in slide-, region-, and cell-level tasks, while requiring four times fewer parameters. It also drastically outperforms fully-supervised graph models on cancer subtyping tasks. Finally, we also release five graph-based digital pathology datasets used in our study at https://huggingface.co/ogutsevda/datasets , establishing the first large-scale graph benchmark in this field. Our code is available at https://github.com/ogutsevda/graphist .
- Abstract(参考訳): 自己監督型視覚モデルは、デジタル病理学において顕著な成功を収めた。
しかし、それらのドメインに依存しないトランスフォーマーアーキテクチャは、もともとは、病理画像の基本的な生物学的要素、すなわち細胞とその複雑な相互作用を説明するために設計されていない。
本研究では,組織を細胞グラフとして生物学的にインフォームド・モデリングすることで,より効率的な表現学習が可能になると仮定する。
そこで我々はGrapHistを紹介した。このグラフベースの自己教師型病理組織学学習フレームワークは、様々な下流タスクを可能にする一般化可能で構造的にインフォームドされた埋め込みを学習する。
GrapHistはマスク付きオートエンコーダと異種グラフニューラルネットワークを統合しており、腫瘍の微小環境の不均一性を捉えるように設計されている。
われわれはGrapHistを乳房組織由来の1100万の細胞グラフの大規模なコレクションに事前トレーニングし、ドメイン内および外部ベンチマーク間での転送性を評価する。
以上の結果から,GrapHistは4倍のパラメータを必要としながら,スライド,リージョン,セルレベルのタスクにおいて,視覚ベースのタスクに比べて競争性能が向上していることがわかった。
また、がんのサブタイプタスクにおいて、完全に教師されたグラフモデルを大幅に上回る。
最後に、私たちは、https://huggingface.co/ogutsevda/datasetsで、グラフベースのデジタル病理データセットを5つリリースしました。
私たちのコードはhttps://github.com/ogutsevda/graphistで公開されています。
関連論文リスト
- Interpretable graph-based models on multimodal biomedical data integration: A technical review and benchmarking [16.418908653117807]
本稿は,2019年1月から2024年1月までに発行された26の研究を対象とする,多モードバイオメディカルデータに対する解釈可能なグラフベースモデルの最初の調査である。
ほとんどの対象疾患分類、特に癌は単純な類似性尺度からの静的グラフに依存し、グラフネイティブな説明器は稀である。
既存のアプローチを4つの解釈可能なファミリーに分類し、グラフイングラフ階層、知識グラフエッジ、動的トポロジー学習などのトレンドを概説し、実用的なベンチマークを行う。
論文 参考訳(メタデータ) (2025-05-03T05:00:38Z) - A Graph-Based Framework for Interpretable Whole Slide Image Analysis [86.37618055724441]
我々は,全スライディング画像を生物学的にインフォームドされたグラフ表現に変換するフレームワークを開発した。
我々のアプローチは、任意の格子ではなく、自然構造を尊重する組織領域からグラフノードを構築する。
がんのステージングと生存予測の課題に強いパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-03-14T20:15:04Z) - Interpretable Retinal Disease Prediction Using Biology-Informed Heterogeneous Graph Representations [40.8160960729546]
解釈可能性は、医療診断のための機械学習モデルの信頼性を高めるために不可欠である。
本研究では,確立した機械学習モデルの性能を超える手法を提案する。
論文 参考訳(メタデータ) (2025-02-23T19:27:47Z) - Towards Graph Foundation Models: Learning Generalities Across Graphs via Task-Trees [50.78679002846741]
タスクツリーを用いたグラフのクロスタスク一般化のための新しい手法を提案する。
本稿では,グラフニューラルネットワーク(GNN)を多種多様なタスクツリー上で事前学習することにより,伝達可能な知識を誘導することを示す。
これにより、最小限の微調整で下流タスクに効率的に適応できる。
論文 参考訳(メタデータ) (2024-12-21T02:07:43Z) - Tertiary Lymphoid Structures Generation through Graph-based Diffusion [54.37503714313661]
本研究では,最先端のグラフベース拡散モデルを用いて生物学的に意味のある細胞グラフを生成する。
本研究では, グラフ拡散モデルを用いて, 3次リンパ構造(TLS)の分布を正確に学習できることを示す。
論文 参考訳(メタデータ) (2023-10-10T14:37:17Z) - NeuroGraph: Benchmarks for Graph Machine Learning in Brain Connectomics [9.803179588247252]
グラフベースのニューロイメージングデータセットのコレクションであるNeuroGraphを紹介する。
行動的特徴と認知的特徴の複数のカテゴリを予測するための実用性を実証する。
論文 参考訳(メタデータ) (2023-06-09T19:10:16Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Contrastive Brain Network Learning via Hierarchical Signed Graph Pooling
Model [64.29487107585665]
脳機能ネットワーク上のグラフ表現学習技術は、臨床表現型および神経変性疾患のための新しいバイオマーカーの発見を容易にする。
本稿では,脳機能ネットワークからグラフレベル表現を抽出する階層型グラフ表現学習モデルを提案する。
また、モデルの性能をさらに向上させるために、機能的脳ネットワークデータをコントラスト学習のために拡張する新たな戦略を提案する。
論文 参考訳(メタデータ) (2022-07-14T20:03:52Z) - Self-Supervised Graph Representation Learning for Neuronal Morphologies [75.38832711445421]
ラベルのないデータセットから3次元神経形態の低次元表現を学習するためのデータ駆動型アプローチであるGraphDINOを提案する。
2つの異なる種と複数の脳領域において、この方法では、専門家による手動の特徴に基づく分類と同程度に形態学的細胞型クラスタリングが得られることを示す。
提案手法は,大規模データセットにおける新しい形態的特徴や細胞型の発見を可能にする可能性がある。
論文 参考訳(メタデータ) (2021-12-23T12:17:47Z) - Whole Brain Vessel Graphs: A Dataset and Benchmark for Graph Learning
and Neuroscience (VesselGraph) [3.846749674808336]
本稿では,特定の画像プロトコルに基づく脳血管グラフの拡張可能なデータセットを提案する。
我々は,血管予測と血管分類の生物学的タスクについて,最先端のグラフ学習アルゴリズムを多数ベンチマークした。
我々の研究は、神経科学の分野におけるグラフ学習研究の進展への道を開いた。
論文 参考訳(メタデータ) (2021-08-30T13:40:48Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。