論文の概要: Soft Tissue Sarcoma Co-Segmentation in Combined MRI and PET/CT Data
- arxiv url: http://arxiv.org/abs/2008.12544v2
- Date: Thu, 24 Sep 2020 09:10:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 01:55:48.053926
- Title: Soft Tissue Sarcoma Co-Segmentation in Combined MRI and PET/CT Data
- Title(参考訳): MRIとPET/CTの併用による軟部組織サルコマの分離
- Authors: Theresa Neubauer, Maria Wimmer, Astrid Berg, David Major, Dimitrios
Lenis, Thomas Beyer, Jelena Saponjski, Katja B\"uhler
- Abstract要約: マルチモーダル医用画像における腫瘍のセグメンテーションは, 深層学習の手法に傾きつつある。
本稿では,モダリティ固有のエンコーダとデコーダのブランチによるマルチモーダル特徴学習を実現する,同時分離手法を提案する。
MRI(T1およびT2配列)とPET/CTスキャンを併用した公衆軟部肉腫データに対するアプローチの有効性を示した。
- 参考スコア(独自算出の注目度): 2.2515303891664358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tumor segmentation in multimodal medical images has seen a growing trend
towards deep learning based methods. Typically, studies dealing with this topic
fuse multimodal image data to improve the tumor segmentation contour for a
single imaging modality. However, they do not take into account that tumor
characteristics are emphasized differently by each modality, which affects the
tumor delineation. Thus, the tumor segmentation is modality- and
task-dependent. This is especially the case for soft tissue sarcomas, where,
due to necrotic tumor tissue, the segmentation differs vastly. Closing this
gap, we develop a modalityspecific sarcoma segmentation model that utilizes
multimodal image data to improve the tumor delineation on each individual
modality. We propose a simultaneous co-segmentation method, which enables
multimodal feature learning through modality-specific encoder and decoder
branches, and the use of resource-effcient densely connected convolutional
layers. We further conduct experiments to analyze how different input
modalities and encoder-decoder fusion strategies affect the segmentation
result. We demonstrate the effectiveness of our approach on public soft tissue
sarcoma data, which comprises MRI (T1 and T2 sequence) and PET/CT scans. The
results show that our multimodal co-segmentation model provides better
modality-specific tumor segmentation than models using only the PET or MRI (T1
and T2) scan as input.
- Abstract(参考訳): マルチモーダル医用画像における腫瘍のセグメンテーションは, 深層学習の手法に傾きつつある。
通常、この話題を扱う研究は、マルチモーダル画像データを融合して、単一の画像モダリティのための腫瘍セグメンテーションの輪郭を改善する。
しかし、腫瘍の特徴が腫瘍の脱線に影響を及ぼす様相によって異なることが強調されることを考慮に入れていない。
したがって、腫瘍のセグメンテーションはモダリティとタスクに依存します。
これは特に軟部組織肉腫の症例であり、壊死性腫瘍組織によってセグメント化が大きく異なる。
このギャップを閉じて,マルチモーダル画像データを用いて各モダリティの腫瘍郭清を改善する様相特異的肉腫分節モデルを開発した。
本稿では,モーダリティ特化エンコーダとデコーダブランチによるマルチモーダル特徴学習と,資源効率の高い密結合畳み込み層の利用が可能な同時分離手法を提案する。
さらに、入力モードとエンコーダ-デコーダ融合戦略の違いがセグメント化結果に与える影響を分析する実験を行う。
MRI(T1およびT2配列)とPET/CTスキャンを併用した公衆軟部肉腫データに対するアプローチの有効性を示した。
その結果,petまたはmri(t1およびt2)スキャンのみを入力として用いるモデルよりも,マルチモーダル・コセグメンテーションモデルの方が腫瘍の分節性が良好であった。
関連論文リスト
- Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation [48.107348956719775]
Mask-Enhanced SAM (M-SAM) は, 腫瘍の3次元セグメント化に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
我々のM-SAMは高いセグメンテーション精度を達成し、またロバストな一般化を示す。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - Automated ensemble method for pediatric brain tumor segmentation [0.0]
本研究では,ONet と UNet の修正版を用いた新しいアンサンブル手法を提案する。
データ拡張により、さまざまなスキャンプロトコル間の堅牢性と精度が保証される。
以上の結果から,この高度なアンサンブルアプローチは診断精度の向上に期待できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-14T15:29:32Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Latent Correlation Representation Learning for Brain Tumor Segmentation
with Missing MRI Modalities [2.867517731896504]
MR画像から正確な脳腫瘍を抽出することが臨床診断と治療計画の鍵となる。
臨床におけるいくつかのイメージングモダリティを見逃すのが一般的です。
本稿では,新しい脳腫瘍分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-13T14:21:09Z) - Brain Tumor Segmentation Network Using Attention-based Fusion and
Spatial Relationship Constraint [19.094164029068462]
マルチモーダルMR画像に基づいて脳腫瘍を頑健に分節する新しいマルチモーダル腫瘍セグメンテーションネットワーク(MMTSN)を開発した。
マルチモーダル脳腫瘍セグメンテーションチャレンジ2020(BraTs 2020)の試験セットについて検討した。
論文 参考訳(メタデータ) (2020-10-29T14:51:10Z) - Robust Pancreatic Ductal Adenocarcinoma Segmentation with
Multi-Institutional Multi-Phase Partially-Annotated CT Scans [25.889684822655255]
膵管腺癌(PDAC)セグメンテーションは最も困難な腫瘍セグメンテーションの1つである。
新たな自己学習フレームワークに基づいて,より多量の患者を用いてPDACセグメンテーションモデルを訓練することを提案する。
実験の結果,提案手法は,注釈付き画像に基づいてトレーニングしたnnUNetの強いベースラインに対して,Diceスコアの6.3%を絶対的に改善することを示した。
論文 参考訳(メタデータ) (2020-08-24T18:50:30Z) - Multimodal Spatial Attention Module for Targeting Multimodal PET-CT Lung
Tumor Segmentation [11.622615048002567]
マルチモーダル空間アテンションモジュール(MSAM)は腫瘍に関連する領域を強調することを学ぶ。
MSAMは一般的なバックボーンアーキテクチャやトレーニングされたエンドツーエンドに適用できる。
論文 参考訳(メタデータ) (2020-07-29T10:27:22Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z) - Stan: Small tumor-aware network for breast ultrasound image segmentation [68.8204255655161]
本研究では,小腫瘍認識ネットワーク(Small tumor-Aware Network,STAN)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
提案手法は, 乳腺腫瘍の分節化における最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2020-02-03T22:25:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。