論文の概要: H-DenseFormer: An Efficient Hybrid Densely Connected Transformer for
Multimodal Tumor Segmentation
- arxiv url: http://arxiv.org/abs/2307.01486v1
- Date: Tue, 4 Jul 2023 05:31:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 18:17:50.054779
- Title: H-DenseFormer: An Efficient Hybrid Densely Connected Transformer for
Multimodal Tumor Segmentation
- Title(参考訳): h-denseformer : マルチモーダル腫瘍セグメンテーションのための高効率ハイブリッド結合トランスフォーマー
- Authors: Jun Shi, Hongyu Kan, Shulan Ruan, Ziqi Zhu, Minfan Zhao, Liang Qiao,
Zhaohui Wang, Hong An, Xudong Xue
- Abstract要約: 本稿では,H-DenseFormerという腫瘍分割のためのハイブリッドネットワークを提案する。
具体的には、H-DenseFormerはTransformerベースのMulti-path Parallel Embedding (MPE)モジュールを統合する。
実験の結果,提案手法は計算量が少なく,既存の最先端手法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 5.999728323822383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, deep learning methods have been widely used for tumor segmentation
of multimodal medical images with promising results. However, most existing
methods are limited by insufficient representational ability, specific modality
number and high computational complexity. In this paper, we propose a hybrid
densely connected network for tumor segmentation, named H-DenseFormer, which
combines the representational power of the Convolutional Neural Network (CNN)
and the Transformer structures. Specifically, H-DenseFormer integrates a
Transformer-based Multi-path Parallel Embedding (MPE) module that can take an
arbitrary number of modalities as input to extract the fusion features from
different modalities. Then, the multimodal fusion features are delivered to
different levels of the encoder to enhance multimodal learning representation.
Besides, we design a lightweight Densely Connected Transformer (DCT) block to
replace the standard Transformer block, thus significantly reducing
computational complexity. We conduct extensive experiments on two public
multimodal datasets, HECKTOR21 and PI-CAI22. The experimental results show that
our proposed method outperforms the existing state-of-the-art methods while
having lower computational complexity. The source code is available at
https://github.com/shijun18/H-DenseFormer.
- Abstract(参考訳): 近年,多変量医用画像の腫瘍分割に深層学習法が広く用いられており,有望な結果が得られている。
しかし、既存の手法のほとんどは、表現能力の不足、特定のモダリティ数、高い計算複雑性によって制限されている。
本稿では,畳み込みニューラルネットワーク (cnn) の表現力とトランスフォーミング構造を組み合わせた,h-denseformerという腫瘍セグメント化のためのハイブリッドネットワークを提案する。
具体的には、h-denseformerはトランスフォーマティブベースのマルチパス並列埋め込み(mpe)モジュールを統合し、任意の数のモダリティを入力として、異なるモダリティから融合特徴を抽出することができる。
その後、マルチモーダル融合機能はエンコーダの異なるレベルに配信され、マルチモーダル学習表現が強化される。
さらに,Densely Connected Transformer (DCT) ブロックを設計して,標準的な Transformer ブロックを置き換えることにより,計算量を大幅に削減する。
公開マルチモーダルデータセットであるHECKTOR21とPI-CAI22について広範な実験を行った。
実験の結果,提案手法は計算の複雑さを低減しつつ,既存の最先端手法よりも優れていることがわかった。
ソースコードはhttps://github.com/shijun18/H-DenseFormerで入手できる。
関連論文リスト
- Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - Hybrid-Fusion Transformer for Multisequence MRI [2.082367820170703]
マルチシーケンスMRI画像分割のためのハイブリッド核融合変換器(HFTrans)を提案する。
マルチモーダルMRIシークエンスの違いを生かし、トランスフォーマー層を用いて各モーダルから抽出した特徴を統合する。
3次元医用セグメンテーションにおけるハイブリッドフュージョン法の有効性を検証した。
論文 参考訳(メタデータ) (2023-11-02T15:22:49Z) - MB-TaylorFormer: Multi-branch Efficient Transformer Expanded by Taylor
Formula for Image Dehazing [88.61523825903998]
トランスフォーマーネットワークは、コンピュータビジョンの分野における純粋な畳み込みニューラルネットワーク(CNN)を置き換えるようになった。
そこで本研究では,Taylor拡張を応用してソフトマックスアテンションを近似し,線形計算複雑性を実現するトランスフォーマー変種を提案する。
提案するTransformerにマルチスケールパッチを組み込んだマルチブランチアーキテクチャを導入する。
Taylor式(MB-TaylorFormer)により拡張されたMulti-branch Transformerと呼ばれる我々のモデルは、パッチ埋め込み段階でより柔軟に粗さを微細な特徴に埋め込むことができ、計算コストに制限のある長距離画素相互作用を捉えることができる。
論文 参考訳(メタデータ) (2023-08-27T08:10:23Z) - ConvTransSeg: A Multi-resolution Convolution-Transformer Network for
Medical Image Segmentation [14.485482467748113]
ハイブリッドエンコーダ/デコーダセグメンテーションモデル(ConvTransSeg)を提案する。
特徴学習用エンコーダとして多層CNNと,セグメンテーション予測用デコーダとして対応する多層トランスフォーマーから構成される。
本手法は,モデル複雑度とメモリ消費率の低いDice係数と平均対称表面距離の測定値で最高の性能を実現する。
論文 参考訳(メタデータ) (2022-10-13T14:59:23Z) - HiFormer: Hierarchical Multi-scale Representations Using Transformers
for Medical Image Segmentation [3.478921293603811]
HiFormerは、医用画像セグメンテーションのためのCNNとトランスフォーマーを効率的にブリッジする新しい方法である。
グローバルな特徴とローカルな特徴の微細融合を確保するため,エンコーダ・デコーダ構造のスキップ接続におけるDouble-Level Fusion (DLF)モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-18T11:30:06Z) - mmFormer: Multimodal Medical Transformer for Incomplete Multimodal
Learning of Brain Tumor Segmentation [38.22852533584288]
3つの主要要素を持つ不完全なマルチモーダル学習のための新しい医療変換器(mmFormer)を提案する。
提案した mmFormer は, ほぼすべての不完全様相のサブセット上で, 不完全多モード脳腫瘍のセグメント化の最先端手法より優れている。
論文 参考訳(メタデータ) (2022-06-06T08:41:56Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - TransCMD: Cross-Modal Decoder Equipped with Transformer for RGB-D
Salient Object Detection [86.94578023985677]
本研究では,グローバルな情報アライメントと変革の観点から,この課題を再考する。
具体的には、トランスCMD(TransCMD)は、複数のクロスモーダル統合ユニットをカスケードして、トップダウントランスフォーマーベースの情報伝達経路を構築する。
7つのRGB-D SODベンチマークデータセットの実験結果から、単純な2ストリームエンコーダデコーダフレームワークが、最先端のCNNベースの手法を超越できることが示されている。
論文 参考訳(メタデータ) (2021-12-04T15:45:34Z) - Transformer-based Network for RGB-D Saliency Detection [82.6665619584628]
RGB-Dサリエンシ検出の鍵は、2つのモードにわたる複数のスケールで情報を完全なマイニングとヒューズすることである。
コンバータは機能融合と機能拡張の両面において高い有効性を示す一様操作であることを示す。
提案するネットワークは,最先端のRGB-D値検出手法に対して良好に動作する。
論文 参考訳(メタデータ) (2021-12-01T15:53:58Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。