論文の概要: Diff4MMLiTS: Advanced Multimodal Liver Tumor Segmentation via Diffusion-Based Image Synthesis and Alignment
- arxiv url: http://arxiv.org/abs/2412.20418v1
- Date: Sun, 29 Dec 2024 09:55:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:06:21.704854
- Title: Diff4MMLiTS: Advanced Multimodal Liver Tumor Segmentation via Diffusion-Based Image Synthesis and Alignment
- Title(参考訳): Diff4MMLiTS:拡散画像合成とアライメントによる肝腫瘍の進展
- Authors: Shiyun Chen, Li Lin, Pujin Cheng, ZhiCheng Jin, JianJian Chen, HaiDong Zhu, Kenneth K. Y. Wong, Xiaoying Tang,
- Abstract要約: マルチモーダル学習は、様々な臨床課題におけるパフォーマンスを高めることが実証されている。
Diff4MMLiTSは4段階のマルチモーダル肝腫瘍セグメンテーションパイプラインである。
公開および内部データセットの実験は、他の最先端マルチモーダルセグメンテーション法よりもDiff4MMLiTSの方が優れていることを示す。
- 参考スコア(独自算出の注目度): 3.700932355945534
- License:
- Abstract: Multimodal learning has been demonstrated to enhance performance across various clinical tasks, owing to the diverse perspectives offered by different modalities of data. However, existing multimodal segmentation methods rely on well-registered multimodal data, which is unrealistic for real-world clinical images, particularly for indistinct and diffuse regions such as liver tumors. In this paper, we introduce Diff4MMLiTS, a four-stage multimodal liver tumor segmentation pipeline: pre-registration of the target organs in multimodal CTs; dilation of the annotated modality's mask and followed by its use in inpainting to obtain multimodal normal CTs without tumors; synthesis of strictly aligned multimodal CTs with tumors using the latent diffusion model based on multimodal CT features and randomly generated tumor masks; and finally, training the segmentation model, thus eliminating the need for strictly aligned multimodal data. Extensive experiments on public and internal datasets demonstrate the superiority of Diff4MMLiTS over other state-of-the-art multimodal segmentation methods.
- Abstract(参考訳): マルチモーダル学習は、様々なデータモダリティによって提供される多様な視点により、様々な臨床課題におけるパフォーマンスを高めることが実証されている。
しかし, 既存のマルチモーダルセグメンテーション法は, 実世界の臨床画像では非現実的であり, 特に肝腫瘍などの未分化領域やびまん性領域では非現実的である。
本稿では,4段階のマルチモーダル肝腫瘍セグメンテーションパイプラインであるDiff4MMLiTSについて紹介する。マルチモーダルCTにおける対象臓器の事前登録,アノテートモダリティマスクの拡張,腫瘍のないマルチモーダルCTの描出,マルチモーダルCT特徴とランダムに生成された腫瘍マスクに基づく潜伏拡散モデルを用いた腫瘍との密集多モーダルCTの合成,そしてセグメント化モデルをトレーニングし,厳密なマルチモーダルデータの必要性を排除した。
公開および内部データセットに対する大規模な実験は、他の最先端マルチモーダルセグメンテーション法よりもDiff4MMLiTSの方が優れていることを示す。
関連論文リスト
- Modality-Aware and Shift Mixer for Multi-modal Brain Tumor Segmentation [12.094890186803958]
マルチモーダル画像のモダリティ内依存性とモダリティ間依存性を統合した新しいModality Aware and Shift Mixerを提案する。
具体的には,低レベルのモザイク対関係をモデル化するためのニューロイメージング研究に基づいてModality-Awareモジュールを導入し,モザイクパターンを具体化したModality-Shiftモジュールを開発し,高レベルのモザイク間の複雑な関係を自己注意を通して探索する。
論文 参考訳(メタデータ) (2024-03-04T14:21:51Z) - C^2M-DoT: Cross-modal consistent multi-view medical report generation
with domain transfer network [67.97926983664676]
ドメイン転送ネットワーク(C2M-DoT)を用いたクロスモーダルなマルチビュー医療レポート生成を提案する。
C2M-DoTは、すべてのメトリクスで最先端のベースラインを大幅に上回る。
論文 参考訳(メタデータ) (2023-10-09T02:31:36Z) - Mirror U-Net: Marrying Multimodal Fission with Multi-task Learning for
Semantic Segmentation in Medical Imaging [19.011295977183835]
従来の融合法をマルチモーダル核分裂に置き換えるミラーU-Netを提案する。
Mirror U-Netは、共有表現でマルチモーダルな特徴を保持しながら、モダリティごとに調整されたタスクを割り当てる。
我々は、AutoPET PET/CTおよびマルチモーダルMSD BrainTumorデータセット上でミラーU-Netを評価し、マルチモーダルセグメンテーションの有効性を実証し、両方のデータセットで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-03-13T13:57:29Z) - mmFormer: Multimodal Medical Transformer for Incomplete Multimodal
Learning of Brain Tumor Segmentation [38.22852533584288]
3つの主要要素を持つ不完全なマルチモーダル学習のための新しい医療変換器(mmFormer)を提案する。
提案した mmFormer は, ほぼすべての不完全様相のサブセット上で, 不完全多モード脳腫瘍のセグメント化の最先端手法より優れている。
論文 参考訳(メタデータ) (2022-06-06T08:41:56Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Modality-aware Mutual Learning for Multi-modal Medical Image
Segmentation [12.308579499188921]
肝臓がんは世界中で最も多いがんの1つである。
本稿では,マルチモーダルCT画像の統合による肝腫瘍切除の自動化に焦点をあてる。
そこで本研究では,肝腫瘍セグメント化を効果的かつ堅牢にするための新たな相互学習(ML)戦略を提案する。
論文 参考訳(メタデータ) (2021-07-21T02:24:31Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Soft Tissue Sarcoma Co-Segmentation in Combined MRI and PET/CT Data [2.2515303891664358]
マルチモーダル医用画像における腫瘍のセグメンテーションは, 深層学習の手法に傾きつつある。
本稿では,モダリティ固有のエンコーダとデコーダのブランチによるマルチモーダル特徴学習を実現する,同時分離手法を提案する。
MRI(T1およびT2配列)とPET/CTスキャンを併用した公衆軟部肉腫データに対するアプローチの有効性を示した。
論文 参考訳(メタデータ) (2020-08-28T09:15:42Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z) - Hi-Net: Hybrid-fusion Network for Multi-modal MR Image Synthesis [143.55901940771568]
マルチモーダルMR画像合成のためのHybrid-fusion Network(Hi-Net)を提案する。
当社のHi-Netでは,各モーダリティの表現を学習するために,モーダリティ特化ネットワークを用いている。
マルチモーダル合成ネットワークは、潜在表現と各モーダルの階層的特徴を密結合するように設計されている。
論文 参考訳(メタデータ) (2020-02-11T08:26:42Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。