論文の概要: Unit-Based Histopathology Tissue Segmentation via Multi-Level Feature Representation
- arxiv url: http://arxiv.org/abs/2507.12427v1
- Date: Wed, 16 Jul 2025 17:15:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.490318
- Title: Unit-Based Histopathology Tissue Segmentation via Multi-Level Feature Representation
- Title(参考訳): 多面的特徴表現による単位組織学的組織分画
- Authors: Ashkan Shakarami, Azade Farshad, Yousef Yeganeh, Lorenzo Nicole, Peter Schuffler, Stefano Ghidoni, Nassir Navab,
- Abstract要約: UTSは病理組織学のための単位ベースの組織分節フレームワークである。
各ピクセルではなく、各固定サイズ32×32タイルをセグメンテーション単位として分類する。
腫瘍ストローマ定量化や外科的マージン評価などの臨床的に関係のあるタスクをサポートする。
- 参考スコア(独自算出の注目度): 36.53156355717765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose UTS, a unit-based tissue segmentation framework for histopathology that classifies each fixed-size 32 * 32 tile, rather than each pixel, as the segmentation unit. This approach reduces annotation effort and improves computational efficiency without compromising accuracy. To implement this approach, we introduce a Multi-Level Vision Transformer (L-ViT), which benefits the multi-level feature representation to capture both fine-grained morphology and global tissue context. Trained to segment breast tissue into three categories (infiltrating tumor, non-neoplastic stroma, and fat), UTS supports clinically relevant tasks such as tumor-stroma quantification and surgical margin assessment. Evaluated on 386,371 tiles from 459 H&E-stained regions, it outperforms U-Net variants and transformer-based baselines. Code and Dataset will be available at GitHub.
- Abstract(参考訳): UTSは,各ピクセルではなく,各固定サイズの32×32タイルをセグメント単位として分類する,病理組織学のための単位ベースの組織分節フレームワークである。
このアプローチはアノテーションの労力を削減し、精度を損なうことなく計算効率を向上させる。
このアプローチを実現するために,マルチレベル・ビジョン・トランスフォーマー (L-ViT) を導入する。
乳房組織を3つのカテゴリ(浸潤性腫瘍、非腫瘍性ストローマ、脂肪)に分類するために訓練されたUTSは、腫瘍ストローマ定量化や外科的マージン評価などの臨床的に関係のあるタスクをサポートする。
459のH&E領域から386,371個のタイルを評価し、U-Netの変種とトランスフォーマーベースのベースラインを上回っている。
CodeとDatasetはGitHubで入手できる。
関連論文リスト
- CAFCT-Net: A CNN-Transformer Hybrid Network with Contextual and Attentional Feature Fusion for Liver Tumor Segmentation [3.8952128960495638]
肝腫瘍分節化のためのコンテクスト・アテンショナル機能FusionsEnhanced Convolutional Network (CNN) と Transformer Hybrid Network (CAFCT-Net) を提案する。
実験の結果,提案モデルの平均断面積は76.54%,Dice係数は84.29%であった。
論文 参考訳(メタデータ) (2024-01-30T10:42:11Z) - CIS-UNet: Multi-Class Segmentation of the Aorta in Computed Tomography
Angiography via Context-Aware Shifted Window Self-Attention [10.335899694123711]
大動脈セグメンテーションのためのディープラーニングモデルであるContext Infused Swin-UNet(CIS-UNet)を紹介する。
CIS-UNetは、CNNエンコーダ、対称デコーダ、スキップ接続、新しいコンテキスト対応シフトウィンドウ自己認識(CSW-SA)をボトルネックブロックとする階層型エンコーダデコーダ構造を採用している。
CIS-UNetは,従来のSwinUNetRセグメンテーションモデルよりも優れた平均Dice係数0.713を達成し,コンピュータ断層撮影(CT)の訓練を行った。
論文 参考訳(メタデータ) (2024-01-23T19:17:20Z) - Automated 3D Tumor Segmentation using Temporal Cubic PatchGAN (TCuP-GAN) [0.276240219662896]
テンポラルキューブPatchGAN(TCuP-GAN)は、畳み込み長短期記憶ネットワーク(LSTM)を用いた生成的特徴学習フレームワークの概念を結合したボリューム・ツー・ボリューム翻訳モデルである。
われわれは,4つのセグメンテーション課題 (Adult Glioma, Meningioma, Pediatric tumors, Sub-Saharan Africa) のデータに基づくTCuP-GANの有用性を実証した。
すべての課題にまたがって、堅牢なマルチクラスセグメンテーションマスクを予測するために、我々のフレームワークが成功したことを実証する。
論文 参考訳(メタデータ) (2023-11-23T18:37:26Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - UNesT: Local Spatial Representation Learning with Hierarchical
Transformer for Efficient Medical Segmentation [29.287521185541298]
我々は、UNesTが常に最先端の性能を達成し、その一般化性とデータ効率を評価することを示す。
我々は、UNesTが常に最先端の性能を達成し、その一般化性とデータ効率を評価することを示す。
論文 参考訳(メタデータ) (2022-09-28T19:14:38Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - Classifying Breast Histopathology Images with a Ductal Instance-Oriented
Pipeline [10.605775819074886]
ダクトレベルセグナーは、顕微鏡画像内で各ダクトの個人を識別しようとする。
その後、特定されたダクタルインスタンスから組織レベルの情報を抽出します。
提案されたDIOPは、推論時間で実行するのに数秒しかかからない。
論文 参考訳(メタデータ) (2020-12-11T05:43:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。