論文の概要: ComboNet: Combined 2D & 3D Architecture for Aorta Segmentation
- arxiv url: http://arxiv.org/abs/2006.05325v1
- Date: Tue, 9 Jun 2020 15:02:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 15:30:21.484649
- Title: ComboNet: Combined 2D & 3D Architecture for Aorta Segmentation
- Title(参考訳): ComboNet: オータセグメンテーションのための2Dと3Dアーキテクチャ
- Authors: Orhan Akal, Zhigang Peng and Gerardo Hermosillo Valadez
- Abstract要約: フル解像度でトレーニングすれば、ディープラーニングによる3Dセグメンテーションが、最高の精度を達成するための理想的な方法だ。
3Dセグメンテーションアプリケーションのほとんどは、完全な解像度ではなくサブサンプル入力を処理する。
Combonetは3つのサブネットワーク構造でエンドツーエンドで設計されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D segmentation with deep learning if trained with full resolution is the
ideal way of achieving the best accuracy. Unlike in 2D, 3D segmentation
generally does not have sparse outliers, prevents leakage to surrounding soft
tissues, at the very least it is generally more consistent than 2D
segmentation. However, GPU memory is generally the bottleneck for such an
application. Thus, most of the 3D segmentation applications handle sub-sampled
input instead of full resolution, which comes with the cost of losing precision
at the boundary. In order to maintain precision at the boundary and prevent
sparse outliers and leakage, we designed ComboNet. ComboNet is designed in an
end to end fashion with three sub-network structures. The first two are
parallel: 2D UNet with full resolution and 3D UNet with four times sub-sampled
input. The last stage is the concatenation of 2D and 3D outputs along with a
full-resolution input image which is followed by two convolution layers either
with 2D or 3D convolutions. With ComboNet we have achieved $92.1\%$ dice
accuracy for aorta segmentation. With Combonet, we have observed up to $2.3\%$
improvement of dice accuracy as opposed to 2D UNet with the full-resolution
input image.
- Abstract(参考訳): フル解像度でトレーニングした場合、ディープラーニングによる3Dセグメンテーションは、最高の精度を達成するための理想的な方法である。
2Dとは異なり、3Dセグメンテーションは一般的に粗いアウトリーを有しておらず、周囲の軟組織への漏れを防ぎ、少なくとも2Dセグメンテーションよりも概して一貫性がある。
しかし、gpuメモリは一般にそのようなアプリケーションのボトルネックである。
したがって、ほとんどの3dセグメンテーションアプリケーションは、完全な解像度ではなくサブサンプリングされた入力を処理する。
境界における精度の維持と,スパース異常や漏洩を防止するため,ComboNetを設計した。
ComboNetは3つのサブネットワーク構造でエンドツーエンドに設計されている。
最初の2つは並列で、フル解像度の2D UNetとサブサンプル入力の4倍の3D UNetである。
最後の段階は、2dおよび3d出力とフル解像度の入力画像の結合であり、2dまたは3dの畳み込みを伴う2つの畳み込み層が続く。
combonet では aorta のセグメンテーションで 92.1\%$ dice の精度を達成しました。
Combonetでは、フル解像度の入力画像を持つ2D UNetとは対照的に、ダイス精度が最大2.3\%向上している。
関連論文リスト
- ConDense: Consistent 2D/3D Pre-training for Dense and Sparse Features from Multi-View Images [47.682942867405224]
ConDenseは既存の2Dネットワークと大規模マルチビューデータセットを利用した3D事前トレーニングのためのフレームワークである。
組込み型2Dと3Dの特徴をエンドツーエンドのパイプラインで抽出する新しい2D-3Dジョイントトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-08-30T05:57:01Z) - SAM-guided Graph Cut for 3D Instance Segmentation [60.75119991853605]
本稿では,3次元画像情報と多視点画像情報の同時利用による3次元インスタンス分割の課題に対処する。
本稿では,3次元インスタンスセグメンテーションのための2次元セグメンテーションモデルを効果的に活用する新しい3D-to-2Dクエリフレームワークを提案する。
本手法は,ロバストなセグメンテーション性能を実現し,異なるタイプのシーンにまたがる一般化を実現する。
論文 参考訳(メタデータ) (2023-12-13T18:59:58Z) - SATR: Zero-Shot Semantic Segmentation of 3D Shapes [74.08209893396271]
大規模オフザシェルフ2次元画像認識モデルを用いて3次元形状のゼロショットセマンティックセマンティックセマンティックセグメンテーションの課題について検討する。
本研究では、SATRアルゴリズムを開発し、ShapeNetPartと提案したFAUSTベンチマークを用いて評価する。
SATRは最先端のパフォーマンスを達成し、ベースラインアルゴリズムを平均mIoUの1.3%と4%で上回っている。
論文 参考訳(メタデータ) (2023-04-11T00:43:16Z) - Lightweight integration of 3D features to improve 2D image segmentation [1.3799488979862027]
画像のセグメンテーションは3次元の基底構造を必要とせずに3次元の幾何学的情報から恩恵を受けることができることを示す。
提案手法は,多くの2次元セグメンテーションネットワークに適用でき,性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-12-16T08:22:55Z) - Conjugate Product Graphs for Globally Optimal 2D-3D Shape Matching [12.740151710302397]
2次元輪郭と3次元メッシュの連続的および非厳密なマッチングを求める問題を考察する。
既存の解は退化解を避けるために非現実的な前提に大きく依存する。
本稿では,2次元輪郭と3次元形状の共役積グラフに基づく新しい2次元3次元形状マッチング形式を提案する。
論文 参考訳(メタデータ) (2022-11-21T15:41:28Z) - SketchSampler: Sketch-based 3D Reconstruction via View-dependent Depth
Sampling [75.957103837167]
1枚のスケッチ画像に基づいて3次元形状を再構成することは、スパースで不規則なスケッチと正規の高密度な3次元形状との間に大きな領域ギャップがあるため困難である。
既存の作品では、3D座標を直接予測するためにスケッチから抽出されたグローバルな特徴を活用しようとするが、通常は入力スケッチに忠実でない細部を失う。
論文 参考訳(メタデータ) (2022-08-14T16:37:51Z) - Homography Loss for Monocular 3D Object Detection [54.04870007473932]
ホログラフィーロス(Homography Loss)と呼ばれる,2次元情報と3次元情報の両方を利用する識別可能なロス関数を提案する。
提案手法は,KITTI 3Dデータセットにおいて,他の最先端技術と比較して高い性能を示す。
論文 参考訳(メタデータ) (2022-04-02T03:48:03Z) - Multi-Modality Task Cascade for 3D Object Detection [22.131228757850373]
多くの手法は2つのモデルを個別に訓練し、単純な特徴結合を用いて3Dセンサーデータを表現している。
本稿では,3次元ボックスの提案を利用して2次元セグメンテーション予測を改善する新しいマルチモードタスクカスケードネットワーク(MTC-RCNN)を提案する。
2段階の3次元モジュール間の2次元ネットワークを組み込むことで,2次元および3次元のタスク性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-07-08T17:55:01Z) - FCOS3D: Fully Convolutional One-Stage Monocular 3D Object Detection [78.00922683083776]
一般的な2D検出器をこの3Dタスクで動作させることは簡単ではない。
本報告では,完全畳み込み型単段検出器を用いた手法を用いてこの問題を考察する。
私たちのソリューションは、NeurIPS 2020のnuScenes 3D検出チャレンジのすべてのビジョンのみの方法の中で1位を獲得します。
論文 参考訳(メタデータ) (2021-04-22T09:35:35Z) - 3D-to-2D Distillation for Indoor Scene Parsing [78.36781565047656]
大規模3次元データリポジトリから抽出した3次元特徴を有効活用し,RGB画像から抽出した2次元特徴を向上する手法を提案する。
まず,事前学習した3Dネットワークから3D知識を抽出して2Dネットワークを監督し,トレーニング中の2D特徴からシミュレーションされた3D特徴を学習する。
次に,2次元の正規化方式を設計し,2次元特徴と3次元特徴のキャリブレーションを行った。
第3に,非ペアの3dデータを用いたトレーニングのフレームワークを拡張するために,意味を意識した対向的トレーニングモデルを設計した。
論文 参考訳(メタデータ) (2021-04-06T02:22:24Z) - Spatial Context-Aware Self-Attention Model For Multi-Organ Segmentation [18.76436457395804]
マルチ組織セグメンテーションは、医学画像解析におけるディープラーニングの最も成功した応用の1つである。
深部畳み込みニューラルネット(CNN)は,CT画像やMRI画像上で臨床応用画像のセグメンテーション性能を達成する上で非常に有望である。
本研究では,高分解能2次元畳み込みによりセグメンテーションを実現する3次元モデルと2次元モデルを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-12-16T21:39:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。