論文の概要: Context-aware Skin Cancer Epithelial Cell Classification with Scalable Graph Transformers
- arxiv url: http://arxiv.org/abs/2602.15783v1
- Date: Tue, 17 Feb 2026 18:17:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.157834
- Title: Context-aware Skin Cancer Epithelial Cell Classification with Scalable Graph Transformers
- Title(参考訳): スケーラブルグラフ変換器を用いた皮膚癌の上皮細胞分類
- Authors: Lucas Sancéré, Noémie Moreau, Katarzyna Bozek,
- Abstract要約: がん患者の全スライディング画像(WSI)は、診断や治療の進行に使える豊富な情報を含んでいる。
フルWSIセルグラフにスケーラブルなグラフ変換器を用いて分類する。
- 参考スコア(独自算出の注目度): 1.9116784879310027
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Whole-slide images (WSIs) from cancer patients contain rich information that can be used for medical diagnosis or to follow treatment progress. To automate their analysis, numerous deep learning methods based on convolutional neural networks and Vision Transformers have been developed and have achieved strong performance in segmentation and classification tasks. However, due to the large size and complex cellular organization of WSIs, these models rely on patch-based representations, losing vital tissue-level context. We propose using scalable Graph Transformers on a full-WSI cell graph for classification. We evaluate this methodology on a challenging task: the classification of healthy versus tumor epithelial cells in cutaneous squamous cell carcinoma (cSCC), where both cell types exhibit very similar morphologies and are therefore difficult to differentiate for image-based approaches. We first compared image-based and graph-based methods on a single WSI. Graph Transformer models SGFormer and DIFFormer achieved balanced accuracies of $85.2 \pm 1.5$ ($\pm$ standard error) and $85.1 \pm 2.5$ in 3-fold cross-validation, respectively, whereas the best image-based method reached $81.2 \pm 3.0$. By evaluating several node feature configurations, we found that the most informative representation combined morphological and texture features as well as the cell classes of non-epithelial cells, highlighting the importance of the surrounding cellular context. We then extended our work to train on several WSIs from several patients. To address the computational constraints of image-based models, we extracted four $2560 \times 2560$ pixel patches from each image and converted them into graphs. In this setting, DIFFormer achieved a balanced accuracy of $83.6 \pm 1.9$ (3-fold cross-validation), while the state-of-the-art image-based model CellViT256 reached $78.1 \pm 0.5$.
- Abstract(参考訳): がん患者の全スライディング画像(WSI)は、診断や治療の進行に使える豊富な情報を含んでいる。
彼らの分析を自動化するために、畳み込みニューラルネットワークとビジョントランスフォーマーに基づく多くのディープラーニング手法が開発され、セグメンテーションや分類タスクにおいて高いパフォーマンスを実現している。
しかし、WSIの大型化と複雑な細胞構造のため、これらのモデルはパッチベースの表現に依存し、重要な組織レベルのコンテキストを失う。
フルWSIセルグラフ上でスケーラブルなグラフ変換器を用いて分類する。
皮膚扁平上皮癌 (cSCC) における正常細胞と腫瘍上皮細胞の分類は, 両細胞とも非常に類似した形態を示すため, 画像に基づくアプローチでは識別が困難である。
画像ベースとグラフベースの手法を1つのWSIで比較した。
グラフトランスフォーマーモデルSGFormerとDIFFormerは、それぞれ85.2 \pm 1.5$(\pm$標準エラー)と85.1 \pm 2.5$(3倍のクロスバリデーション)のバランスの取れた精度を達成した。
複数のノードの特徴的構成を評価することで, 形態的, テクスチャ的特徴と非上皮細胞の細胞クラスを組み合わせ, 周囲の細胞コンテキストの重要性を浮き彫りにした。
その後、いくつかの患者からWSIをトレーニングするために作業を拡張しました。
画像ベースモデルの計算制約に対処するため,各画像から2560ドル相当のパッチを4つ抽出し,それらをグラフに変換する。
この設定では、DIFFormerは83.6 \pm 1.9$ (3-fold cross-validation)のバランスの取れた精度を達成し、最先端の画像ベースモデルであるCellViT256は78.1 \pm 0.5$に達した。
関連論文リスト
- Survival Modeling from Whole Slide Images via Patch-Level Graph Clustering and Mixture Density Experts [7.0624785659308165]
本稿では,スライド画像全体から癌特異的生存を予測するためのモジュラーフレームワークを提案する。
この枠組みは4つの重要な段階から成り、予測的形態学と不均一性を捉えるように設計されている。
論文 参考訳(メタデータ) (2025-07-22T11:32:36Z) - A Graph-Based Framework for Interpretable Whole Slide Image Analysis [86.37618055724441]
我々は,全スライディング画像を生物学的にインフォームドされたグラフ表現に変換するフレームワークを開発した。
我々のアプローチは、任意の格子ではなく、自然構造を尊重する組織領域からグラフノードを構築する。
がんのステージングと生存予測の課題に強いパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-03-14T20:15:04Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。