論文の概要: E2ENet: Dynamic Sparse Feature Fusion for Accurate and Efficient 3D
Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2312.04727v1
- Date: Thu, 7 Dec 2023 22:13:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 16:44:32.606477
- Title: E2ENet: Dynamic Sparse Feature Fusion for Accurate and Efficient 3D
Medical Image Segmentation
- Title(参考訳): E2ENet: 正確な3次元医用画像分割のためのダイナミックスパース機能融合
- Authors: Boqian Wu, Qiao Xiao, Shiwei Liu, Lu Yin, Mykola Pechenizkiy, Decebal
Constantin Mocanu, Maurice Van Keulen and Elena Mocanu
- Abstract要約: E2ENet(Efficient to Efficient Network)と呼ばれる3次元医用画像分割モデルを提案する。
パラメトリックと計算効率の2つの設計が組み込まれている。
さまざまなリソース制約に対して、正確性と効率性のトレードオフを一貫して達成します。
- 参考スコア(独自算出の注目度): 36.367368163120794
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks have evolved as the leading approach in 3D medical image
segmentation due to their outstanding performance. However, the ever-increasing
model size and computation cost of deep neural networks have become the primary
barrier to deploying them on real-world resource-limited hardware. In pursuit
of improving performance and efficiency, we propose a 3D medical image
segmentation model, named Efficient to Efficient Network (E2ENet),
incorporating two parametrically and computationally efficient designs. i.
Dynamic sparse feature fusion (DSFF) mechanism: it adaptively learns to fuse
informative multi-scale features while reducing redundancy. ii. Restricted
depth-shift in 3D convolution: it leverages the 3D spatial information while
keeping the model and computational complexity as 2D-based methods. We conduct
extensive experiments on BTCV, AMOS-CT and Brain Tumor Segmentation Challenge,
demonstrating that E2ENet consistently achieves a superior trade-off between
accuracy and efficiency than prior arts across various resource constraints.
E2ENet achieves comparable accuracy on the large-scale challenge AMOS-CT, while
saving over 68\% parameter count and 29\% FLOPs in the inference phase,
compared with the previous best-performing method. Our code has been made
available at: https://github.com/boqian333/E2ENet-Medical.
- Abstract(参考訳): ディープニューラルネットワークは、3D画像セグメンテーションの主要なアプローチとして進化してきた。
しかし、深層ニューラルネットワークのモデルサイズと計算コストの増大は、実世界のリソース制限されたハードウェアにそれらをデプロイするための主要な障壁となっている。
本稿では,2つのパラメトリックかつ計算効率の高い設計を組み込んだ3次元医用画像セグメンテーションモデルである efficient to efficient network (e2enet)を提案する。
私は...
動的スパース機能融合(DSFF: Dynamic Sparse Feature fusion)機構: 冗長性を低減しつつ情報的マルチスケール特徴の融合を適応的に学習する。
私は...
3次元畳み込みにおける制限された深さシフト: 2次元法としてモデルと計算複雑性を維持しながら、3次元空間情報を活用する。
我々はBTCV,AMOS-CT,Brain tumor Segmentation Challengeの広範な実験を行い,E2ENetは様々な資源制約にまたがる先行技術よりも精度と効率のトレードオフを一貫して達成していることを示した。
E2ENet は AMOS-CT の大規模課題に対して,68 % 以上のパラメータカウントと29 % FLOP を推論フェーズで保存し,精度を比較検討した。
私たちのコードは、https://github.com/boqian333/e2enet-medicalで利用可能です。
関連論文リスト
- Binarized 3D Whole-body Human Mesh Recovery [104.13364878565737]
本研究では, 人体, 顔, 手の3次元パラメータを効率的に推定するために, 両立二重残差ネットワーク (BiDRN) を提案する。
BiDRNは、22.1%のパラメータと14.8%の操作しか使用せず、完全精度のHand4Wholeで同等のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-11-24T07:51:50Z) - Spatiotemporal Modeling Encounters 3D Medical Image Analysis:
Slice-Shift UNet with Multi-View Fusion [0.0]
本稿では,2次元CNNにおける3次元特徴をエンコードする2次元モデルSlice SHift UNetを提案する。
より正確にマルチビュー機能は、ボリュームの3次元平面に沿って2次元の畳み込みを実行することで協調的に学習される。
提案手法の有効性は,多モード腹部多臓器軸 (AMOS) と Cranial Vault (BTCV) データセットを越えたマルチアトラスラベリング (Multi-Atlas Labeling Beyond the Cranial Vault) で検証した。
論文 参考訳(メタデータ) (2023-07-24T14:53:23Z) - 3DSAM-adapter: Holistic Adaptation of SAM from 2D to 3D for Promptable
Medical Image Segmentation [56.50064853710202]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image
Segmentation [98.90623605283564]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Multi-Slice Dense-Sparse Learning for Efficient Liver and Tumor
Segmentation [4.150096314396549]
ディープ畳み込みニューラルネットワーク(DCNN)は2次元および3次元の医用画像セグメンテーションにおいて大きな成功を収めている。
そこで我々は,DCNNを正規化するための入力として,密接な隣接スライスと疎隣接スライスを抽出するデータの観点から,新しい密集スプリストレーニングフローを提案する。
また、ネットワークの観点から2.5Dの軽量nnU-Netを設計し、その効率を向上させるために深度的に分離可能な畳み込みを採用する。
論文 参考訳(メタデータ) (2021-08-15T15:29:48Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - Efficient embedding network for 3D brain tumor segmentation [0.33727511459109777]
本稿では,脳腫瘍の3次元的セマンティックセグメンテーションを目的とした2次元分類網の性能伝達手法について検討する。
入力データが3Dの場合、エンコーダの第1層は、効率の良いNetネットワークの入力に適合するために、第3次元の削減に費やされる。
BraTS 2020チャレンジの検証とテストデータに関する実験結果から,提案手法が有望な性能を達成することを示す。
論文 参考訳(メタデータ) (2020-11-22T16:17:29Z) - Attention-Guided Version of 2D UNet for Automatic Brain Tumor
Segmentation [2.371982686172067]
グリオーマは脳腫瘍の中でも最も一般的で攻撃的であり、高い成績で寿命が短くなる。
深層畳み込みニューラルネットワーク(DCNN)は脳腫瘍のセグメンテーションにおいて顕著な性能を発揮している。
しかし, グリオーマの強度や外観に変化があるため, この課題は依然として困難である。
論文 参考訳(メタデータ) (2020-04-04T20:09:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。