論文の概要: DoubleU-Net++: Architecture with Exploit Multiscale Features for
Vertebrae Segmentation
- arxiv url: http://arxiv.org/abs/2201.12389v1
- Date: Fri, 28 Jan 2022 19:42:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-05 07:44:29.772030
- Title: DoubleU-Net++: Architecture with Exploit Multiscale Features for
Vertebrae Segmentation
- Title(参考訳): DoubleU-Net++:Vertebraeセグメンテーションのための爆発的マルチスケール機能を備えたアーキテクチャ
- Authors: Simindokht Jahangard, Mahdi Bonyani, Abbas Khosravi
- Abstract要約: 我々はDoubleU-Net++という新しいモデルを提案し、DensNetを特徴抽出モジュールとし、CBAM(Convolutional Block Attention on Module)とPSA(Praamid Squeeze Attention)モジュールを用いて特徴抽出を改善する。
最先端の研究と比較して、我々のアーキテクチャはより速く訓練され、評価として高い精度、リコール、F1スコアを達成する。
- 参考スコア(独自算出の注目度): 5.326832235832844
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate segmentation of the vertebra is an important prerequisite in various
medical applications (E.g. tele surgery) to assist surgeons. Following the
successful development of deep neural networks, recent studies have focused on
the essential rule of vertebral segmentation. Prior works contain a large
number of parameters, and their segmentation is restricted to only one view.
Inspired by DoubleU-Net, we propose a novel model named DoubleU-Net++ in which
DensNet as feature extractor, special attention module from Convolutional Block
Attention on Module (CBAM) and, Pyramid Squeeze Attention (PSA) module are
employed to improve extracted features. We evaluate our proposed model on three
different views (sagittal, coronal, and axial) of VerSe2020 and xVertSeg
datasets. Compared with state-of-the-art studies, our architecture is trained
faster and achieves higher precision, recall, and F1-score as evaluation
(imporoved by 4-6%) and the result of above 94% for sagittal view and above 94%
for both coronal view and above 93% axial view were gained for VerSe2020
dataset, respectively. Also, for xVertSeg dataset, we achieved precision,
recall,and F1-score of above 97% for sagittal view, above 93% for coronal view
,and above 96% for axial view.
- Abstract(参考訳): 脊椎の正確な分節は、外科医を支援する様々な医学的応用(例えば遠隔手術)において重要な前提条件である。
ディープニューラルネットワークの開発が成功した後、最近の研究は脊椎分節の本質的な規則に焦点を当てている。
以前の作業には多数のパラメータが含まれており、セグメンテーションは1つのビューに制限されている。
DoubleU-Netに触発されてDoubleU-Net++と呼ばれる新しいモデルを提案し、DensNetを特徴抽出モジュールとして、CBAM(Convolutional Block Attention on Module)から特別注意モジュールを、抽出機能を改善するためにPraamid Squeeze Attention(PSA)モジュールを採用する。
我々はverse2020とxvertsegデータセットの3つの異なるビュー(sagittal, coronal, axial)で提案モデルを評価する。
最新の研究と比較すると,我々のアーキテクチャはより高速に訓練され,評価として高い精度,リコール,およびf1-score(4~6%)を達成し,またverse2020データセットでは矢状図が94%以上,コロナビューが94%以上,軸線ビューが93%以上となった。
また,xvertsegデータセットでは,矢状視では97%,コロナ視では93%,軸視では96%以上の精度,リコール,f1-scoreを達成している。
関連論文リスト
- WATUNet: A Deep Neural Network for Segmentation of Volumetric Sweep
Imaging Ultrasound [1.2903292694072621]
ボリューム・スイープ・イメージング(VSI)は、訓練を受けていないオペレーターが高品質な超音波画像をキャプチャできる革新的な手法である。
本稿ではWavelet_Attention_UNet(WATUNet)と呼ばれる新しいセグメンテーションモデルを提案する。
このモデルでは、簡単な接続ではなく、ウェーブレットゲート(WG)とアテンションゲート(AG)をエンコーダとデコーダの間に組み込んで、上記の制限を克服する。
論文 参考訳(メタデータ) (2023-11-17T20:32:37Z) - VertDetect: Fully End-to-End 3D Vertebral Instance Segmentation Model [0.0]
本稿では,完全自動3次元脊椎椎体分割畳み込みニューラルネットワーク(CNN)モデルであるVertDetectを提案する。
共有CNNバックボーンの利用は、脊髄と脊椎の両方のレベル情報を含む特徴マップを備えたネットワークの検出とセグメンテーションのブランチを提供する。
このモデルは、エンド・ツー・エンドのアーキテクチャにおいて最先端のパフォーマンスを達成し、その設計により、その後下流のタスクに使用できる機能の抽出が容易になる。
論文 参考訳(メタデータ) (2023-11-16T15:29:21Z) - A Federated Learning Framework for Stenosis Detection [70.27581181445329]
本研究は,冠動脈造影画像(CA)の狭窄検出におけるFL(Federated Learning)の使用について検討した。
アンコナのOspedale Riuniti(イタリア)で取得した200人の患者1219枚の画像を含む2施設の異種データセットについて検討した。
データセット2には、文献で利用可能な90人の患者からの7492のシーケンシャルな画像が含まれている。
論文 参考訳(メタデータ) (2023-10-30T11:13:40Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image
Segmentation [98.90623605283564]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - A new eye segmentation method based on improved U2Net in TCM eye
diagnosis [0.0]
本稿では,U2Netネットワークのアーキテクチャに基づくRes-UNetを提案する。
同時に、Miou、Precision、Recall、F1-Score、FLOPSを用いて異なるアイデータセグメンテーションフレームを比較した。
この構造は,全ての比較ネットワークにおいて最高のセグメンテーション効果を達成し,その後の視覚機器認識症状の応用の基礎となる。
論文 参考訳(メタデータ) (2022-12-06T14:00:58Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Universal Segmentation of 33 Anatomies [19.194539991903593]
本稿では,33の解剖学的構造を普遍的に分割する単一モデルの学習手法を提案する。
我々は、複数のデータセットの結合からそのようなモデルを学び、各データセットには部分的にラベル付けされた画像が含まれている。
我々は,複数のオープンソースデータセット上でモデルを評価し,モデルが優れた一般化性能を有することを示す。
論文 参考訳(メタデータ) (2022-03-04T02:29:54Z) - Hierarchical 3D Feature Learning for Pancreas Segmentation [11.588903060674344]
MRIとCTの両方から膵分画を自動化する3D完全畳み込み型深層ネットワークを提案する。
本モデルでは,Diceスコアが約88%と,既存のCT膵セグメンテーション法よりも優れていた。
さらなる制御実験により、達成された性能は、我々の3次元完全畳み込み深層ネットワークと階層的表現復号化の組み合わせによるものであることが示された。
論文 参考訳(メタデータ) (2021-09-03T09:27:07Z) - Deep ensembles based on Stochastic Activation Selection for Polyp
Segmentation [82.61182037130406]
本研究は,大腸内視鏡検査における画像分割,特に正確なポリープ検出とセグメンテーションを扱う。
イメージセグメンテーションの基本アーキテクチャはエンコーダとデコーダで構成されている。
我々はデコーダのバックボーンを変更することで得られるDeepLabアーキテクチャのバリエーションを比較した。
論文 参考訳(メタデータ) (2021-04-02T02:07:37Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Volumetric Medical Image Segmentation: A 3D Deep Coarse-to-fine
Framework and Its Adversarial Examples [74.92488215859991]
本稿では,これらの課題に効果的に取り組むために,新しい3Dベースの粗粒度フレームワークを提案する。
提案した3Dベースのフレームワークは、3つの軸すべてに沿ってリッチな空間情報を活用できるため、2Dよりも大きなマージンで優れている。
我々は,3つのデータセット,NIH膵データセット,JHMI膵データセット,JHMI病理嚢胞データセットについて実験を行った。
論文 参考訳(メタデータ) (2020-10-29T15:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。