論文の概要: E2ENet: Dynamic Sparse Feature Fusion for Accurate and Efficient 3D
Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2312.04727v1
- Date: Thu, 7 Dec 2023 22:13:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 16:44:32.606477
- Title: E2ENet: Dynamic Sparse Feature Fusion for Accurate and Efficient 3D
Medical Image Segmentation
- Title(参考訳): E2ENet: 正確な3次元医用画像分割のためのダイナミックスパース機能融合
- Authors: Boqian Wu, Qiao Xiao, Shiwei Liu, Lu Yin, Mykola Pechenizkiy, Decebal
Constantin Mocanu, Maurice Van Keulen and Elena Mocanu
- Abstract要約: E2ENet(Efficient to Efficient Network)と呼ばれる3次元医用画像分割モデルを提案する。
パラメトリックと計算効率の2つの設計が組み込まれている。
さまざまなリソース制約に対して、正確性と効率性のトレードオフを一貫して達成します。
- 参考スコア(独自算出の注目度): 36.367368163120794
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks have evolved as the leading approach in 3D medical image
segmentation due to their outstanding performance. However, the ever-increasing
model size and computation cost of deep neural networks have become the primary
barrier to deploying them on real-world resource-limited hardware. In pursuit
of improving performance and efficiency, we propose a 3D medical image
segmentation model, named Efficient to Efficient Network (E2ENet),
incorporating two parametrically and computationally efficient designs. i.
Dynamic sparse feature fusion (DSFF) mechanism: it adaptively learns to fuse
informative multi-scale features while reducing redundancy. ii. Restricted
depth-shift in 3D convolution: it leverages the 3D spatial information while
keeping the model and computational complexity as 2D-based methods. We conduct
extensive experiments on BTCV, AMOS-CT and Brain Tumor Segmentation Challenge,
demonstrating that E2ENet consistently achieves a superior trade-off between
accuracy and efficiency than prior arts across various resource constraints.
E2ENet achieves comparable accuracy on the large-scale challenge AMOS-CT, while
saving over 68\% parameter count and 29\% FLOPs in the inference phase,
compared with the previous best-performing method. Our code has been made
available at: https://github.com/boqian333/E2ENet-Medical.
- Abstract(参考訳): ディープニューラルネットワークは、3D画像セグメンテーションの主要なアプローチとして進化してきた。
しかし、深層ニューラルネットワークのモデルサイズと計算コストの増大は、実世界のリソース制限されたハードウェアにそれらをデプロイするための主要な障壁となっている。
本稿では,2つのパラメトリックかつ計算効率の高い設計を組み込んだ3次元医用画像セグメンテーションモデルである efficient to efficient network (e2enet)を提案する。
私は...
動的スパース機能融合(DSFF: Dynamic Sparse Feature fusion)機構: 冗長性を低減しつつ情報的マルチスケール特徴の融合を適応的に学習する。
私は...
3次元畳み込みにおける制限された深さシフト: 2次元法としてモデルと計算複雑性を維持しながら、3次元空間情報を活用する。
我々はBTCV,AMOS-CT,Brain tumor Segmentation Challengeの広範な実験を行い,E2ENetは様々な資源制約にまたがる先行技術よりも精度と効率のトレードオフを一貫して達成していることを示した。
E2ENet は AMOS-CT の大規模課題に対して,68 % 以上のパラメータカウントと29 % FLOP を推論フェーズで保存し,精度を比較検討した。
私たちのコードは、https://github.com/boqian333/e2enet-medicalで利用可能です。
関連論文リスト
- Intensity-Spatial Dual Masked Autoencoder for Multi-Scale Feature Learning in Chest CT Segmentation [4.916334618361524]
本稿では,ISD-MAE (Intensity-Spatial Dual Masked AutoEncoder) という改良手法を提案する。
このモデルは、二重ブランチ構造とコントラスト学習を利用して、組織の特徴と境界の詳細を学習する能力を強化する。
以上の結果より, ISD-MAEは2次元肺炎および縦隔腫瘍セグメンテーションにおいて他の方法よりも有意に優れていた。
論文 参考訳(メタデータ) (2024-11-20T10:58:47Z) - EM-Net: Efficient Channel and Frequency Learning with Mamba for 3D Medical Image Segmentation [3.6813810514531085]
我々は,EM-Netと呼ばれる新しい3次元医用画像セグメンテーションモデルを紹介し,その成功に触発されて,新しいマンバベースの3次元医用画像セグメンテーションモデルであるEM-Netを紹介した。
提案手法は,SOTAモデルのパラメータサイズをほぼ半分にし,訓練速度を2倍に向上させながら,より高精度なセグメンテーション精度を示すことを示す。
論文 参考訳(メタデータ) (2024-09-26T09:34:33Z) - LeRF: Learning Resampling Function for Adaptive and Efficient Image Interpolation [64.34935748707673]
最近のディープニューラルネットワーク(DNN)は、学習データ前処理を導入することで、パフォーマンスを著しく向上させた。
本稿では,DNNが学習した構造的前提と局所的連続仮定の両方を活かした学習再サンプリング(Learning Resampling, LeRF)を提案する。
LeRFは空間的に異なる再サンプリング関数を入力画像ピクセルに割り当て、ニューラルネットワークを用いてこれらの再サンプリング関数の形状を予測する。
論文 参考訳(メタデータ) (2024-07-13T16:09:45Z) - Binarized 3D Whole-body Human Mesh Recovery [104.13364878565737]
本研究では, 人体, 顔, 手の3次元パラメータを効率的に推定するために, 両立二重残差ネットワーク (BiDRN) を提案する。
BiDRNは、22.1%のパラメータと14.8%の操作しか使用せず、完全精度のHand4Wholeで同等のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-11-24T07:51:50Z) - Spatiotemporal Modeling Encounters 3D Medical Image Analysis:
Slice-Shift UNet with Multi-View Fusion [0.0]
本稿では,2次元CNNにおける3次元特徴をエンコードする2次元モデルSlice SHift UNetを提案する。
より正確にマルチビュー機能は、ボリュームの3次元平面に沿って2次元の畳み込みを実行することで協調的に学習される。
提案手法の有効性は,多モード腹部多臓器軸 (AMOS) と Cranial Vault (BTCV) データセットを越えたマルチアトラスラベリング (Multi-Atlas Labeling Beyond the Cranial Vault) で検証した。
論文 参考訳(メタデータ) (2023-07-24T14:53:23Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Efficient embedding network for 3D brain tumor segmentation [0.33727511459109777]
本稿では,脳腫瘍の3次元的セマンティックセグメンテーションを目的とした2次元分類網の性能伝達手法について検討する。
入力データが3Dの場合、エンコーダの第1層は、効率の良いNetネットワークの入力に適合するために、第3次元の削減に費やされる。
BraTS 2020チャレンジの検証とテストデータに関する実験結果から,提案手法が有望な性能を達成することを示す。
論文 参考訳(メタデータ) (2020-11-22T16:17:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。