論文の概要: Comparison of 2D vs. 3D U-Net Organ Segmentation in abdominal 3D CT
images
- arxiv url: http://arxiv.org/abs/2107.04062v1
- Date: Thu, 8 Jul 2021 18:35:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:53:12.110843
- Title: Comparison of 2D vs. 3D U-Net Organ Segmentation in abdominal 3D CT
images
- Title(参考訳): 腹部CT像における2D vs. 3D U-Net Organ Segmentationの比較
- Authors: Nico Zettler and Andre Mastmeyer
- Abstract要約: 腹腔鏡下CT像の腹腔内5臓器における3次元分画の2段階的概念について述べる。
2D U-Netと3D U-Netの比較に重点を置いている。
例えば、肝臓と腎臓は、高速でGPUメモリの2D U-Netを使用して、大幅に改善された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A two-step concept for 3D segmentation on 5 abdominal organs inside
volumetric CT images is presented. First each relevant organ's volume of
interest is extracted as bounding box. The extracted volume acts as input for a
second stage, wherein two compared U-Nets with different architectural
dimensions re-construct an organ segmentation as label mask. In this work, we
focus on comparing 2D U-Nets vs. 3D U-Net counterparts. Our initial results
indicate Dice improvements of about 6\% at maximum. In this study to our
surprise, liver and kidneys for instance were tackled significantly better
using the faster and GPU-memory saving 2D U-Nets. For other abdominal key
organs, there were no significant differences, but we observe highly
significant advantages for the 2D U-Net in terms of GPU computational efforts
for all organs under study.
- Abstract(参考訳): ボリュームCT画像中の腹腔内臓器の3次元分画の2段階的概念について述べる。
まず、関連する各臓器の体積をバウンディングボックスとして抽出する。
抽出されたボリュームは第2ステージの入力として働き、2つの異なる構造次元のu-netがラベルマスクとしてオルガンセグメンテーションを再構築する。
本研究では,2次元U-Netと3次元U-Netを比較した。
最初の結果は,最大で約6倍のDice改善を示した。
今回の研究では、例えば肝臓と腎臓は、高速でGPUメモリの2D U-Netを使用して、大幅に改善された。
他の腹部キー臓器には有意な差はなかったが, 研究中の全臓器のGPU計算において, 2次元U-Netに対して極めて有意な優位性を示した。
関連論文リスト
- IB-U-Nets: Improving medical image segmentation tasks with 3D Inductive
Biased kernels [8.361151913935776]
IB-U-Netsは脊椎動物の視覚処理にインスパイアされた誘導バイアスを持つ新しいアーキテクチャである。
3D U-Netをベースとして、第2エンコーダブロックに2つの残留成分を付加する。これは誘導バイアスを与え、U-Netが3D画像から解剖学的構造を分割し、堅牢性と精度を高めるのに役立つ。
IB-U-Netsの強靭性と精度は,医用画像解析の典型例のように,特に小データセットにおいて優れていた。
論文 参考訳(メタデータ) (2022-10-28T07:12:15Z) - MvDeCor: Multi-view Dense Correspondence Learning for Fine-grained 3D
Segmentation [91.6658845016214]
そこで本研究では,2次元領域における自己教師型手法を,微細な3次元形状分割作業に活用することを提案する。
複数のビューから3次元形状を描画し、コントラスト学習フレームワーク内に密接な対応学習タスクを設置する。
その結果、学習された2次元表現はビュー不変であり、幾何学的に一貫性がある。
論文 参考訳(メタデータ) (2022-08-18T00:48:15Z) - 3D-OOCS: Learning Prostate Segmentation with Inductive Bias [5.907824204733372]
我々は,脊椎動物の視覚処理に触発された新しいアーキテクチャであるOOCS-enhanced Networkを紹介した。
ベースとして異なる3D U-Netの変種を伴って、第2エンコーダブロックに2つの3D残留成分(オン・オフ・センター・サラウンド)を付加する。
OOCSは、3DのU-Netが3D画像に存在する解剖学的構造を精査し、精査するのに役立つ。
論文 参考訳(メタデータ) (2021-10-29T10:14:56Z) - A Novel Hybrid Convolutional Neural Network for Accurate Organ
Segmentation in 3D Head and Neck CT Images [31.245109574064532]
本研究では,2次元と3次元の畳み込みを融合させて異なる空間解像度に対処し,3次元HaNCT画像から効果的なエッジとセマンティック特徴を抽出するハイブリッドCNNを提案する。
MICCAI 2015チャレンジデータセットの実験は、OrganNet2.5Dが最先端の手法と比較して有望なパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2021-09-26T15:37:47Z) - Asymmetric 3D Context Fusion for Universal Lesion Detection [55.61873234187917]
3Dネットワークは、3Dコンテキストでは強いが、教師付き事前トレーニングがない。
既存の3Dコンテキスト融合演算子は空間対称に設計されており、畳み込みのように各2Dスライス上で同一の操作を行う。
本研究では, 異なる重みを持つ非対称な3次元コンテキスト融合演算子 (A3D) を提案し, 異なる2次元スライスから3次元コンテキストを融合させる。
論文 参考訳(メタデータ) (2021-09-17T16:25:10Z) - Multi-Modality Task Cascade for 3D Object Detection [22.131228757850373]
多くの手法は2つのモデルを個別に訓練し、単純な特徴結合を用いて3Dセンサーデータを表現している。
本稿では,3次元ボックスの提案を利用して2次元セグメンテーション予測を改善する新しいマルチモードタスクカスケードネットワーク(MTC-RCNN)を提案する。
2段階の3次元モジュール間の2次元ネットワークを組み込むことで,2次元および3次元のタスク性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-07-08T17:55:01Z) - 3D-to-2D Distillation for Indoor Scene Parsing [78.36781565047656]
大規模3次元データリポジトリから抽出した3次元特徴を有効活用し,RGB画像から抽出した2次元特徴を向上する手法を提案する。
まず,事前学習した3Dネットワークから3D知識を抽出して2Dネットワークを監督し,トレーニング中の2D特徴からシミュレーションされた3D特徴を学習する。
次に,2次元の正規化方式を設計し,2次元特徴と3次元特徴のキャリブレーションを行った。
第3に,非ペアの3dデータを用いたトレーニングのフレームワークを拡張するために,意味を意識した対向的トレーニングモデルを設計した。
論文 参考訳(メタデータ) (2021-04-06T02:22:24Z) - Bidirectional Projection Network for Cross Dimension Scene Understanding [69.29443390126805]
本稿では,2次元および3次元の連立推論のための縦方向投影網(BPNet)をエンドツーエンドに提示する。
emphBPM、補完的な2D、および3D情報は、複数のアーキテクチャレベルで相互に相互作用することができる。
我々のemphBPNetは2次元および3次元セマンティックセマンティックセグメンテーションのためのScanNetV2ベンチマークで最高性能を達成した。
論文 参考訳(メタデータ) (2021-03-26T08:31:39Z) - Spatial Context-Aware Self-Attention Model For Multi-Organ Segmentation [18.76436457395804]
マルチ組織セグメンテーションは、医学画像解析におけるディープラーニングの最も成功した応用の1つである。
深部畳み込みニューラルネット(CNN)は,CT画像やMRI画像上で臨床応用画像のセグメンテーション性能を達成する上で非常に有望である。
本研究では,高分解能2次元畳み込みによりセグメンテーションを実現する3次元モデルと2次元モデルを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-12-16T21:39:53Z) - Synthetic Training for Monocular Human Mesh Recovery [100.38109761268639]
本稿では,RGB画像と大規模に異なる複数の身体部位の3次元メッシュを推定することを目的とする。
主な課題は、2D画像のすべての身体部分の3Dアノテーションを完備するトレーニングデータがないことである。
本稿では,D2S(Deep-to-scale)投影法を提案する。
論文 参考訳(メタデータ) (2020-10-27T03:31:35Z) - Semantic Correspondence via 2D-3D-2D Cycle [58.023058561837686]
本稿では,3次元領域に利用して意味的対応を予測するための新しい手法を提案する。
提案手法は,標準的なセマンティックベンチマークにおいて比較,さらに優れた結果を与えることを示す。
論文 参考訳(メタデータ) (2020-04-20T05:27:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。