論文の概要: R2U3D: Recurrent Residual 3D U-Net for Lung Segmentation
- arxiv url: http://arxiv.org/abs/2105.02290v1
- Date: Wed, 5 May 2021 19:17:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 01:54:45.097547
- Title: R2U3D: Recurrent Residual 3D U-Net for Lung Segmentation
- Title(参考訳): R2U3D:肺分節に対する再発3次元U-Net
- Authors: Dhaval D. Kadia, Md Zahangir Alom, Ranga Burada, Tam V. Nguyen,
Vijayan K. Asari
- Abstract要約: 本稿では,3次元肺分割作業のための新しいモデルであるRecurrent Residual 3D U-Net(R2U3D)を提案する。
特に,提案モデルでは,U-Netに基づくRecurrent Residual Neural Networkに3次元畳み込みを組み込む。
提案するR2U3Dネットワークは、公開データセットLUNA16に基づいてトレーニングされ、最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 17.343802171952195
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: 3D lung segmentation is essential since it processes the volumetric
information of the lungs, removes the unnecessary areas of the scan, and
segments the actual area of the lungs in a 3D volume. Recently, the deep
learning model, such as U-Net outperforms other network architectures for
biomedical image segmentation. In this paper, we propose a novel model, namely,
Recurrent Residual 3D U-Net (R2U3D), for the 3D lung segmentation task. In
particular, the proposed model integrates 3D convolution into the Recurrent
Residual Neural Network based on U-Net. It helps learn spatial dependencies in
3D and increases the propagation of 3D volumetric information. The proposed
R2U3D network is trained on the publicly available dataset LUNA16 and it
achieves state-of-the-art performance on both LUNA16 (testing set) and VESSEL12
dataset. In addition, we show that training the R2U3D model with a smaller
number of CT scans, i.e., 100 scans, without applying data augmentation
achieves an outstanding result in terms of Soft Dice Similarity Coefficient
(Soft-DSC) of 0.9920.
- Abstract(参考訳): 肺の容積情報を処理し、スキャンの不要な領域を除去し、肺の実際の領域を3Dボリュームに分割するので、3D肺セグメンテーションは必須である。
近年,U-Netなどのディープラーニングモデルは,バイオメディカルイメージセグメンテーションにおいて,他のネットワークアーキテクチャよりも優れている。
本稿では,3次元肺分割作業のための新しいモデル,すなわちRecurrent Residual 3D U-Net(R2U3D)を提案する。
特に,提案モデルでは,U-Netに基づくRecurrent Residual Neural Networkに3次元畳み込みを組み込む。
3dで空間依存を学習し、3dボリューム情報の伝播を増加させる。
提案するR2U3Dネットワークは、公開データセットLUNA16に基づいてトレーニングされており、LUNA16(テストセット)とVESSEL12データセットの両方で最先端のパフォーマンスを達成する。
さらに,R2U3DモデルのCTスキャンの少ないトレーニング,すなわちデータ拡張を行なわずに100スキャンを行い,ソフトディス類似度係数(Soft-DSC)の0.9920で優れた結果が得られることを示した。
関連論文リスト
- DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - Spatiotemporal Modeling Encounters 3D Medical Image Analysis:
Slice-Shift UNet with Multi-View Fusion [0.0]
本稿では,2次元CNNにおける3次元特徴をエンコードする2次元モデルSlice SHift UNetを提案する。
より正確にマルチビュー機能は、ボリュームの3次元平面に沿って2次元の畳み込みを実行することで協調的に学習される。
提案手法の有効性は,多モード腹部多臓器軸 (AMOS) と Cranial Vault (BTCV) データセットを越えたマルチアトラスラベリング (Multi-Atlas Labeling Beyond the Cranial Vault) で検証した。
論文 参考訳(メタデータ) (2023-07-24T14:53:23Z) - Swin3D: A Pretrained Transformer Backbone for 3D Indoor Scene
Understanding [40.68012530554327]
室内3Dシーン理解のための3DバックボーンであるSSTを導入する。
我々は,線形メモリの複雑さを伴うスパースボクセルの自己アテンションを効率的に行える3Dスウィントランスを,バックボーンネットワークとして設計する。
我々のアプローチによって実現されたスケーラビリティ、汎用性、優れたパフォーマンスをさらに検証する大規模なアブレーション研究のシリーズである。
論文 参考訳(メタデータ) (2023-04-14T02:49:08Z) - NeRF-GAN Distillation for Efficient 3D-Aware Generation with
Convolutions [97.27105725738016]
GAN(Generative Adversarial Networks)のようなニューラルラジアンスフィールド(NeRF)と生成モデルの統合は、単一ビュー画像から3D認識生成を変換した。
提案手法は,ポーズ条件付き畳み込みネットワークにおいて,事前学習したNeRF-GANの有界遅延空間を再利用し,基礎となる3次元表現に対応する3D一貫性画像を直接生成する手法である。
論文 参考訳(メタデータ) (2023-03-22T18:59:48Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - 3D-to-2D Distillation for Indoor Scene Parsing [78.36781565047656]
大規模3次元データリポジトリから抽出した3次元特徴を有効活用し,RGB画像から抽出した2次元特徴を向上する手法を提案する。
まず,事前学習した3Dネットワークから3D知識を抽出して2Dネットワークを監督し,トレーニング中の2D特徴からシミュレーションされた3D特徴を学習する。
次に,2次元の正規化方式を設計し,2次元特徴と3次元特徴のキャリブレーションを行った。
第3に,非ペアの3dデータを用いたトレーニングのフレームワークを拡張するために,意味を意識した対向的トレーニングモデルを設計した。
論文 参考訳(メタデータ) (2021-04-06T02:22:24Z) - 3D U-Net for segmentation of COVID-19 associated pulmonary infiltrates
using transfer learning: State-of-the-art results on affordable hardware [0.0]
肺浸潤物はCOVID-19の重症度を評価するのに役立ちますが、手動セグメンテーションは労働力と時間集約的です。
神経ネットワークを用いて肺浸潤を分断すると、このタスクは自動化される。
限られたハードウェアと短時間で最先端のセグメンテーションモデルをトレーニングするためのトランスファーラーニングの使用方法に関するソリューションを開発し、テストしました。
論文 参考訳(メタデータ) (2021-01-25T09:37:32Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - 3D Axial-Attention for Lung Nodule Classification [0.11458853556386794]
通常の非ローカルネットワークの計算能力のほんの一部を必要とする3D Axial-Attentionを使用することを提案する。
非局所ネットワークの位置不変問題を,共有埋め込みに3次元位置符号化を加えることを提案する。
その結果、3D Axial-Attentionモデルは、AUCやAccuracyを含むすべての評価指標で最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2020-12-28T06:49:09Z) - Spatial Context-Aware Self-Attention Model For Multi-Organ Segmentation [18.76436457395804]
マルチ組織セグメンテーションは、医学画像解析におけるディープラーニングの最も成功した応用の1つである。
深部畳み込みニューラルネット(CNN)は,CT画像やMRI画像上で臨床応用画像のセグメンテーション性能を達成する上で非常に有望である。
本研究では,高分解能2次元畳み込みによりセグメンテーションを実現する3次元モデルと2次元モデルを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-12-16T21:39:53Z) - Exemplar Fine-Tuning for 3D Human Model Fitting Towards In-the-Wild 3D
Human Pose Estimation [107.07047303858664]
3次元の地平線アノテーションを持つ大規模な人的データセットは、野生では入手が困難である。
既存の2Dデータセットを高品質な3Dポーズマッチングで拡張することで、この問題に対処する。
結果として得られるアノテーションは、3Dのプロシージャネットワークをスクラッチからトレーニングするのに十分である。
論文 参考訳(メタデータ) (2020-04-07T20:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。