論文の概要: Improved distinct bone segmentation in upper-body CT through
multi-resolution networks
- arxiv url: http://arxiv.org/abs/2301.13674v1
- Date: Tue, 31 Jan 2023 14:46:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 16:10:03.143936
- Title: Improved distinct bone segmentation in upper-body CT through
multi-resolution networks
- Title(参考訳): マルチレゾリューションネットワークによる上半身ctの骨分割の改善
- Authors: Eva Schnider, Julia Wolleb, Antal Huck, Mireille Toranelli, Georg
Rauter, Magdalena M\"uller-Gerbl, Philippe C. Cattin
- Abstract要約: 上半身CTと異なる骨分画では、大きな視野と計算的な3Dアーキテクチャが必要とされる。
これにより、空間的コンテキストの欠如により、細部や局所的な誤差を欠いた低解像度な結果が得られる。
本稿では,異なる解像度で動作する複数の3次元U-Netを組み合わせたエンドツーエンドのトレーニング可能なセグメンテーションネットワークを提案する。
- 参考スコア(独自算出の注目度): 0.39583175274885335
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Purpose: Automated distinct bone segmentation from CT scans is widely used in
planning and navigation workflows. U-Net variants are known to provide
excellent results in supervised semantic segmentation. However, in distinct
bone segmentation from upper body CTs a large field of view and a
computationally taxing 3D architecture are required. This leads to
low-resolution results lacking detail or localisation errors due to missing
spatial context when using high-resolution inputs.
Methods: We propose to solve this problem by using end-to-end trainable
segmentation networks that combine several 3D U-Nets working at different
resolutions. Our approach, which extends and generalizes HookNet and MRN,
captures spatial information at a lower resolution and skips the encoded
information to the target network, which operates on smaller high-resolution
inputs. We evaluated our proposed architecture against single resolution
networks and performed an ablation study on information concatenation and the
number of context networks.
Results: Our proposed best network achieves a median DSC of 0.86 taken over
all 125 segmented bone classes and reduces the confusion among similar-looking
bones in different locations. These results outperform our previously published
3D U-Net baseline results on the task and distinct-bone segmentation results
reported by other groups.
Conclusion: The presented multi-resolution 3D U-Nets address current
shortcomings in bone segmentation from upper-body CT scans by allowing for
capturing a larger field of view while avoiding the cubic growth of the input
pixels and intermediate computations that quickly outgrow the computational
capacities in 3D. The approach thus improves the accuracy and efficiency of
distinct bone segmentation from upper-body CT.
- Abstract(参考訳): 目的:CTスキャンによる骨分割の自動化は,計画やナビゲーションのワークフローに広く利用されている。
u-netの変種は教師付きセマンティクスセグメンテーションの優れた結果をもたらすことが知られている。
しかし,上半身CTと異なる骨分割を行うには,大視野の視野と3D構造を計算的に分類する必要がある。
これにより、高解像度入力を使用する場合の空間的コンテキストの欠如による詳細や局所的誤差の少ない低解像度結果が得られる。
方法:様々な解像度で動作する複数の3d u-netを結合したエンドツーエンドの訓練可能なセグメンテーションネットワークを用いてこの問題を解決する。
提案手法は,HookNetとMRNを拡張し,より低解像度で空間情報をキャプチャし,より小さな高解像度入力で動作するターゲットネットワークに符号化情報をスキップする。
提案アーキテクチャを単一解像度ネットワークに対して評価し,情報結合とコンテキストネットワーク数に関するアブレーション研究を行った。
結果: 提案するベストネットワークは, 125個の分節骨クラスで0.86の中央値dscを達成し, 異所の類似骨間の混乱を軽減した。
これらの結果は,以前公表した3次元U-Netベースラインの結果と,他のグループによって報告された識別骨分割結果よりも優れていた。
結論: マルチレゾリューション3d u-netsは, 入力画素の立方体成長を回避しつつ, 3次元の計算容量を急速に上回る中間計算を回避しつつ, 上部ctスキャンから骨の分節化の現在の欠点に対処する。
これにより,上半身CTと骨分割の精度と効率が向上する。
関連論文リスト
- DDU-Net: A Domain Decomposition-based CNN for High-Resolution Image Segmentation on Multiple GPUs [46.873264197900916]
ドメイン分解に基づくU-Netアーキテクチャを導入し、入力イメージを重複しないパッチに分割する。
空間コンテキストの理解を高めるために、パッチ間情報交換を容易にするための通信ネットワークが追加される。
その結果、この手法は、パッチ間通信のない同一ネットワークと比較して、IoU(Universal over Union)スコアよりも2~3,%高い交点を達成できることが判明した。
論文 参考訳(メタデータ) (2024-07-31T01:07:21Z) - Leveraging Frequency Domain Learning in 3D Vessel Segmentation [50.54833091336862]
本研究では,Fourier領域学習を3次元階層分割モデルにおけるマルチスケール畳み込みカーネルの代用として活用する。
管状血管分割作業において,新しいネットワークは顕著なサイス性能(ASACA500が84.37%,ImageCASが80.32%)を示した。
論文 参考訳(メタデータ) (2024-01-11T19:07:58Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Multi-organ Segmentation Network with Adversarial Performance Validator [10.775440368500416]
本稿では,2次元から3次元のセグメンテーションフレームワークに対向的な性能検証ネットワークを導入する。
提案したネットワークは, 2次元粗い結果から3次元高品質なセグメンテーションマスクへの変換を行い, 共同最適化によりセグメンテーション精度が向上する。
NIH膵分節データセットの実験では、提案したネットワークが小臓器分節の最先端の精度を達成し、過去の最高性能を上回った。
論文 参考訳(メタデータ) (2022-04-16T18:00:29Z) - Pyramid Grafting Network for One-Stage High Resolution Saliency
Detection [29.013012579688347]
我々は、異なる解像度画像から特徴を独立して抽出する、Praamid Grafting Network (PGNet) と呼ばれるワンステージフレームワークを提案する。
CNNブランチが壊れた詳細情報をよりホモロジーに組み合わせられるように、アテンションベースのクロスモデルグラフティングモジュール (CMGM) が提案されている。
我々は,4K-8K解像度で5,920個の画像を含む超高分解能塩度検出データセットUHRSDを新たに提供した。
論文 参考訳(メタデータ) (2022-04-11T12:22:21Z) - MDA-Net: Multi-Dimensional Attention-Based Neural Network for 3D Image
Segmentation [4.221871357181261]
マルチ次元アテンションネットワーク(MDA-Net)を提案し,スライスワイド,空間,チャネルワイドアテンションを効率よくU-Netネットワークに統合する。
MICCAI iSegおよびIBSRデータセット上のモデルを評価し、実験結果が既存の方法よりも一貫した改善を示した。
論文 参考訳(メタデータ) (2021-05-10T16:58:34Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - Learning Hybrid Representations for Automatic 3D Vessel Centerline
Extraction [57.74609918453932]
3次元医用画像からの血管の自動抽出は血管疾患の診断に不可欠である。
既存の方法では、3次元画像からそのような細い管状構造を分割する際に、抽出された容器の不連続に悩まされることがある。
抽出された船舶の連続性を維持するためには、地球的幾何学を考慮に入れる必要があると論じる。
この課題を解決するためのハイブリッド表現学習手法を提案します。
論文 参考訳(メタデータ) (2020-12-14T05:22:49Z) - KiU-Net: Overcomplete Convolutional Architectures for Biomedical Image
and Volumetric Segmentation [71.79090083883403]
トラディショナル・エンコーダ・デコーダに基づく手法は, より小さな構造を検出でき, 境界領域を正確に分割できない。
本稿では,(1)入力の細部と正確なエッジを捉えることを学ぶ完全畳み込みネットワークKite-Netと,(2)高レベルの特徴を学習するU-Netの2つの枝を持つKiU-Netを提案する。
提案手法は,より少ないパラメータとより高速な収束の利点により,最近のすべての手法と比較して性能が向上する。
論文 参考訳(メタデータ) (2020-10-04T19:23:33Z) - DDU-Nets: Distributed Dense Model for 3D MRI Brain Tumor Segmentation [27.547646527286886]
分散高密度接続(DDC)の3つのパターンが提案され,CNNの機能再利用と伝播が促進される。
DDC(DDU-Nets)を組み込んだCNNベースのモデルでは,3次元MR画像から脳腫瘍をよりよく検出し,セグメンテーションするために,ピクセルからピクセルへの効率よくトレーニングを行う。
提案手法はBraTS 2019データセットで評価され,DDU-Netsの有効性が示された。
論文 参考訳(メタデータ) (2020-03-03T05:08:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。