論文の概要: ISA-Net: Improved spatial attention network for PET-CT tumor
segmentation
- arxiv url: http://arxiv.org/abs/2211.02256v1
- Date: Fri, 4 Nov 2022 04:15:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 17:21:31.578137
- Title: ISA-Net: Improved spatial attention network for PET-CT tumor
segmentation
- Title(参考訳): ISA-Net:PET-CT腫瘍セグメンテーションのための空間的注意ネットワークの改善
- Authors: Zhengyong Huang, Sijuan Zou, Guoshuai Wang, Zixiang Chen, Hao Shen,
Haiyan Wang, Na Zhang, Lu Zhang, Fan Yang, Haining Wangg, Dong Liang, Tianye
Niu, Xiaohua Zhuc, Zhanli Hua
- Abstract要約: 多モードポジトロン放射トモグラフィー(PET-CT)に基づく深層学習セグメンテーション法を提案する。
腫瘍検出におけるPETやCTの精度を高めるために,改良された空間注意ネットワーク(ISA-Net)を設計した。
今回提案したISA-Net法を,軟部組織肉腫 (STS) と頭頸部腫瘍 (HECKTOR) の2つの臨床データセットで検証した。
- 参考スコア(独自算出の注目度): 22.48294544919023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving accurate and automated tumor segmentation plays an important role
in both clinical practice and radiomics research. Segmentation in medicine is
now often performed manually by experts, which is a laborious, expensive and
error-prone task. Manual annotation relies heavily on the experience and
knowledge of these experts. In addition, there is much intra- and interobserver
variation. Therefore, it is of great significance to develop a method that can
automatically segment tumor target regions. In this paper, we propose a deep
learning segmentation method based on multimodal positron emission
tomography-computed tomography (PET-CT), which combines the high sensitivity of
PET and the precise anatomical information of CT. We design an improved spatial
attention network(ISA-Net) to increase the accuracy of PET or CT in detecting
tumors, which uses multi-scale convolution operation to extract feature
information and can highlight the tumor region location information and
suppress the non-tumor region location information. In addition, our network
uses dual-channel inputs in the coding stage and fuses them in the decoding
stage, which can take advantage of the differences and complementarities
between PET and CT. We validated the proposed ISA-Net method on two clinical
datasets, a soft tissue sarcoma(STS) and a head and neck tumor(HECKTOR)
dataset, and compared with other attention methods for tumor segmentation. The
DSC score of 0.8378 on STS dataset and 0.8076 on HECKTOR dataset show that
ISA-Net method achieves better segmentation performance and has better
generalization. Conclusions: The method proposed in this paper is based on
multi-modal medical image tumor segmentation, which can effectively utilize the
difference and complementarity of different modes. The method can also be
applied to other multi-modal data or single-modal data by proper adjustment.
- Abstract(参考訳): 腫瘍分画の正確かつ自動化は臨床と放射線研究の両方において重要な役割を担っている。
現在、医学におけるセグメンテーションは、しばしば専門家によって手動で行われる。
マニュアルアノテーションは、これらの専門家の経験と知識に大きく依存している。
さらに、inter-intra-observerとinterobserverには多くのバリエーションがある。
そのため,腫瘍標的領域を自動的に分割する手法を開発することが重要である。
本稿では,PETの高感度とCTの正確な解剖情報を組み合わせた多モードポジトロンCT(PET-CT)に基づく深層学習セグメンテーション手法を提案する。
我々は,腫瘍検出におけるPETやCTの精度を高めるために,改良された空間注意ネットワーク(ISA-Net)を設計し,マルチスケールの畳み込み操作を用いて特徴情報を抽出し,腫瘍領域の位置情報をハイライトし,非腫瘍領域の位置情報を抑圧する。
さらに,本ネットワークは,符号化段階ではデュアルチャネル入力を使用し,復号段階では融合し,PETとCTの違いと相補性を利用することができる。
今回提案したISA-Net法を,軟部組織肉腫(STS)と頭頸部腫瘍(HECKTOR)の2つの臨床データセットで検証し,他の腫瘍セグメンテーション法と比較した。
DSCスコアはSTSデータセットで0.8378、HECKTORデータセットで0.8076であり、ISA-Net法はセグメンテーション性能が良く、より一般化されていることを示している。
結論: 本論文では, 異なるモードの差分と相補性を効果的に活用できるマルチモーダルな医用画像腫瘍セグメンテーションを基礎とする手法を提案する。
この方法は、適切な調整により、他のマルチモーダルデータやシングルモーダルデータにも適用することができる。
関連論文リスト
- Multi-modal Evidential Fusion Network for Trusted PET/CT Tumor Segmentation [5.839660501978193]
PET画像とCT画像の画質は臨床環境で大きく変化しており、ネットワークによって抽出されたモダリティ情報の不確実性につながっている。
本稿では,クロスモーダル・フィーチャーラーニング(CFL)モジュールとマルチモーダル・トラスト・フュージョン(MTF)モジュールからなる新しいマルチモーダル・エビデンシャル・フュージョン・ネットワーク(MEFN)を提案する。
本モデルでは, 自動セグメンテーション結果の受け入れや拒絶の判断において, セグメンテーション結果の確実な不確実性を, 放射線技師に提供することができる。
論文 参考訳(メタデータ) (2024-06-26T13:14:24Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - A Localization-to-Segmentation Framework for Automatic Tumor
Segmentation in Whole-Body PET/CT Images [8.0523823243864]
本稿では,腫瘍の正確な分節化のための局在化・分節化フレームワーク(L2SNet)を提案する。
L2SNetは、まず、病変の局所化段階における可能性のある病変を局在させ、次いで、病変の分節フェーズにおけるセグメント化結果を形成するために位置手がかりを使用する。
全身FDG-PET/CTチャレンジデータセットにおけるMII自動病変を用いた実験により,本手法が競争力のある結果を示した。
論文 参考訳(メタデータ) (2023-09-11T13:39:15Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Segmentation of Lung Tumor from CT Images using Deep Supervision [0.8733639720576208]
肺がんは世界中のほとんどの国で死因となっている。
本稿では,LOTUSデータセットに2次元離散ウェーブレット変換(DWT)を適用し,肺腫瘍のセグメンテーションにアプローチする。
論文 参考訳(メタデータ) (2021-11-17T17:50:18Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Multimodal Spatial Attention Module for Targeting Multimodal PET-CT Lung
Tumor Segmentation [11.622615048002567]
マルチモーダル空間アテンションモジュール(MSAM)は腫瘍に関連する領域を強調することを学ぶ。
MSAMは一般的なバックボーンアーキテクチャやトレーニングされたエンドツーエンドに適用できる。
論文 参考訳(メタデータ) (2020-07-29T10:27:22Z) - A Novel and Efficient Tumor Detection Framework for Pancreatic Cancer
via CT Images [21.627818410241552]
本稿では,新しい膵腫瘍検出フレームワークを提案する。
提案手法のコントリビューションは,Augmented Feature Pyramid Network,Self-Adaptive Feature Fusion,Dependencies Computation Moduleの3つのコンポーネントから構成される。
実験により,AUCの0.9455による検出において,他の最先端手法よりも優れた性能が得られた。
論文 参考訳(メタデータ) (2020-02-11T15:48:22Z) - Stan: Small tumor-aware network for breast ultrasound image segmentation [68.8204255655161]
本研究では,小腫瘍認識ネットワーク(Small tumor-Aware Network,STAN)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
提案手法は, 乳腺腫瘍の分節化における最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2020-02-03T22:25:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。