論文の概要: Taming Mambas for Voxel Level 3D Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2410.15496v1
- Date: Sun, 20 Oct 2024 20:26:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:18:37.429624
- Title: Taming Mambas for Voxel Level 3D Medical Image Segmentation
- Title(参考訳): ボクセルレベル3次元医用画像セグメンテーションのためのタミングマンバ
- Authors: Luca Lumetti, Vittorio Pipoli, Kevin Marchesini, Elisa Ficarra, Costantino Grana, Federico Bolelli,
- Abstract要約: 近年,畳み込みニューラルネットワーク(CNN)を用いた深層学習モデルによって,3次元医用セグメンテーションの分野が支配されている。
トランスフォーマーは、十分なメモリ要件と、飢餓データによって妨げられているため、詳細なレベルで3Dの医療ボリュームを処理するには理想的ではない。
最近のブレークスルーは、ステートスペースモデル(SSM)に基づいたリカレントニューラルネットワーク(RNN)であるMambaである。
- 参考スコア(独自算出の注目度): 6.879775769304377
- License:
- Abstract: Recently, the field of 3D medical segmentation has been dominated by deep learning models employing Convolutional Neural Networks (CNNs) and Transformer-based architectures, each with their distinctive strengths and limitations. CNNs are constrained by a local receptive field, whereas transformers are hindered by their substantial memory requirements as well as they data hungriness, making them not ideal for processing 3D medical volumes at a fine-grained level. For these reasons, fully convolutional neural networks, as nnUNet, still dominate the scene when segmenting medical structures in 3D large medical volumes. Despite numerous advancements towards developing transformer variants with subquadratic time and memory complexity, these models still fall short in content-based reasoning. A recent breakthrough is Mamba, a Recurrent Neural Network (RNN) based on State Space Models (SSMs) outperforming Transformers in many long-context tasks (million-length sequences) on famous natural language processing and genomic benchmarks while keeping a linear complexity.
- Abstract(参考訳): 近年,3次元医用セグメンテーションの分野は,畳み込みニューラルネットワーク(CNN)とトランスフォーマーベースのアーキテクチャを用いたディープラーニングモデルによって支配されている。
CNNは局所受容野によって制限されているのに対し、トランスフォーマーはメモリの要求がかなり大きいことと、飢餓をデータ化しているため、微細なレベルでの3D医療ボリュームの処理には理想的ではない。
これらの理由から、nnUNetのような完全な畳み込みニューラルネットワークは、医療構造を3次元の大規模医療ボリュームに分割する場面において、依然として支配的である。
サブクワッドラティック時間とメモリの複雑さを持つトランスフォーマー変種の開発に向けた多くの進歩にもかかわらず、これらのモデルはコンテンツベースの推論では依然として不足している。
最近のブレークスルーは、ステートスペースモデル(SSM)に基づくリカレントニューラルネットワーク(RNN)で、有名な自然言語処理やゲノムベンチマークにおいて、多くの長いコンテキストタスク(数百万のシーケンス)においてトランスフォーマーを上回っ、線形複雑性を維持している。
関連論文リスト
- MambaClinix: Hierarchical Gated Convolution and Mamba-Based U-Net for Enhanced 3D Medical Image Segmentation [6.673169053236727]
医用画像分割のための新しいU字型アーキテクチャであるMambaClinixを提案する。
MambaClinixは、階層的なゲート畳み込みネットワークとMambaを適応的なステージワイドフレームワークに統合する。
以上の結果から,MambaClinixは低モデルの複雑さを維持しつつ高いセグメンテーション精度を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-09-19T07:51:14Z) - Learning from partially labeled data for multi-organ and tumor
segmentation [102.55303521877933]
本稿では,トランスフォーマーに基づく動的オンデマンドネットワーク(TransDoDNet)を提案する。
動的ヘッドにより、ネットワークは複数のセグメンテーションタスクを柔軟に達成することができる。
我々はMOTSと呼ばれる大規模にラベル付けされたMulti-Organ and tumorベンチマークを作成し、他の競合相手よりもTransDoDNetの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-13T13:03:09Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Improving Across-Dataset Brain Tissue Segmentation Using Transformer [10.838458766450989]
本研究では,脳組織セグメンテーションのための新しいCNN-Transformerハイブリッドアーキテクチャを提案する。
我々は、4つのマルチサイトT1w MRIデータセットでモデルの性能を検証する。
論文 参考訳(メタデータ) (2022-01-21T15:16:39Z) - Swin UNETR: Swin Transformers for Semantic Segmentation of Brain Tumors
in MRI Images [7.334185314342017]
我々はSwin UNEt TRansformers(Swin UNETR)と呼ばれる新しいセグメンテーションモデルを提案する。
このモデルは、シフトしたウィンドウを利用して、5つの異なる解像度で特徴を抽出し、自己注意を演算する。
我々は、BraTS 2021セグメンテーションチャレンジに参加し、提案したモデルは、検証フェーズにおける最も優れたアプローチの1つである。
論文 参考訳(メタデータ) (2022-01-04T18:01:34Z) - D-Former: A U-shaped Dilated Transformer for 3D Medical Image
Segmentation [7.635663740358682]
そこで我々はDilated Transformerと呼ばれる新しい手法を提案し、ローカルとグローバルの領域で交互にキャプチャされたペアワイドパッチ関係に対して自己アテンションを行う。
拡張畳み込みカーネルにインスパイアされた我々は、グローバルな自己意識を拡張的に実行し、関連するパッチを増やさずに受容領域を拡大し、計算コストを削減した。
論文 参考訳(メタデータ) (2022-01-03T03:20:35Z) - TransforMesh: A Transformer Network for Longitudinal modeling of
Anatomical Meshes [4.812718493682454]
本稿では3次元解剖学的メッシュ上での縦方向の形状変化をモデル化するトランスフォーメシュ・アテンポラルネットワークを提案する。
その結果,TransforMeshは他のベースラインアーキテクチャよりも形状トラジェクトリをモデル化できることがわかった。
また,AD患者における構造異常の検出におけるTransforMeshの有用性についても検討した。
論文 参考訳(メタデータ) (2021-09-01T14:21:58Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。