論文の概要: IP-UNet: Intensity Projection UNet Architecture for 3D Medical Volume
Segmentation
- arxiv url: http://arxiv.org/abs/2308.12761v1
- Date: Thu, 24 Aug 2023 13:08:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 13:55:25.881223
- Title: IP-UNet: Intensity Projection UNet Architecture for 3D Medical Volume
Segmentation
- Title(参考訳): IP-UNet: 3次元医用ボリュームセグメンテーションのための拡張投影UNetアーキテクチャ
- Authors: Nyothiri Aung, Tahar Kechadi, Liming Chen and Sahraoui Dhelim
- Abstract要約: 3Dボリュームは通常、処理前に収穫されるか縮小される。
我々はIP-UNetと呼ばれるエンドツーエンドのディープラーニング手法を提案する。
乳房石灰化自動検出のための3次元容積画像におけるこれらの手法の性能を検証した。
- 参考スコア(独自算出の注目度): 3.098349658160282
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: CNNs have been widely applied for medical image analysis. However, limited
memory capacity is one of the most common drawbacks of processing
high-resolution 3D volumetric data. 3D volumes are usually cropped or downsized
first before processing, which can result in a loss of resolution, increase
class imbalance, and affect the performance of the segmentation algorithms. In
this paper, we propose an end-to-end deep learning approach called IP-UNet.
IP-UNet is a UNet-based model that performs multi-class segmentation on
Intensity Projection (IP) of 3D volumetric data instead of the memory-consuming
3D volumes. IP-UNet uses limited memory capability for training without losing
the original 3D image resolution. We compare the performance of three models in
terms of segmentation accuracy and computational cost: 1) Slice-by-slice 2D
segmentation of the CT scan images using a conventional 2D UNet model. 2)
IP-UNet that operates on data obtained by merging the extracted Maximum
Intensity Projection (MIP), Closest Vessel Projection (CVP), and Average
Intensity Projection (AvgIP) representations of the source 3D volumes, then
applying the UNet model on the output IP images. 3) 3D-UNet model directly
reads the 3D volumes constructed from a series of CT scan images and outputs
the 3D volume of the predicted segmentation. We test the performance of these
methods on 3D volumetric images for automatic breast calcification detection.
Experimental results show that IP-Unet can achieve similar segmentation
accuracy with 3D-Unet but with much better performance. It reduces the training
time by 70\% and memory consumption by 92\%.
- Abstract(参考訳): CNNは医療画像解析に広く応用されている。
しかし、メモリ容量の制限は、高解像度の3Dボリュームデータを処理する最も一般的な欠点の1つである。
3Dボリュームは通常、処理前にトリミングまたは縮小されるため、解像度が低下し、クラス不均衡が増加し、セグメンテーションアルゴリズムの性能に影響を及ぼす可能性がある。
本稿では,IP-UNetと呼ばれるエンドツーエンドのディープラーニング手法を提案する。
ip-unetはunetベースのモデルで、メモリ消費する3dボリュームの代わりに、3dボリュームデータの強度投影(ip)のマルチクラスセグメンテーションを実行する。
IP-UNetは、元の3D画像解像度を失うことなく、トレーニングに限られたメモリ能力を使用する。
セグメンテーション精度と計算コストの観点から3つのモデルの性能を比較する。
1)従来の2次元UNetモデルを用いたCTスキャン画像のスライス・バイ・スライス2次元分割
2)抽出した最大強度投影(MIP)、最接近容器投影(CVP)、平均強度投影(AvgIP)のソース3Dボリューム表現をマージし、出力されたIPイメージにUNetモデルを適用することにより得られるデータを利用するIP-UNet。
3)3D-UNetモデルはCTスキャン画像から構築した3Dボリュームを直接読み出し,予測セグメンテーションの3Dボリュームを出力する。
乳房石灰化自動検出のための3次元ボリューム画像におけるこれらの手法の性能をテストする。
実験の結果,IP-Unetは3D-Unetと同等のセグメンテーション精度を達成できるが,性能は向上した。
トレーニング時間を70 %削減し、メモリ消費を92 %削減する。
関連論文リスト
- Efficient Slice Anomaly Detection Network for 3D Brain MRI Volume [2.3633885460047765]
現在の異常検出法は, 基準産業データより優れているが, 「正常」 と「異常」の定義の相違により, 医療データに苦慮している。
我々は,ImageNet上で事前学習し,MRIデータセットを2次元スライス特徴抽出器として微調整したモデルを用いたSimple Slice-based Network (SimpleSliceNet) というフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-28T17:20:56Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - Spatiotemporal Modeling Encounters 3D Medical Image Analysis:
Slice-Shift UNet with Multi-View Fusion [0.0]
本稿では,2次元CNNにおける3次元特徴をエンコードする2次元モデルSlice SHift UNetを提案する。
より正確にマルチビュー機能は、ボリュームの3次元平面に沿って2次元の畳み込みを実行することで協調的に学習される。
提案手法の有効性は,多モード腹部多臓器軸 (AMOS) と Cranial Vault (BTCV) データセットを越えたマルチアトラスラベリング (Multi-Atlas Labeling Beyond the Cranial Vault) で検証した。
論文 参考訳(メタデータ) (2023-07-24T14:53:23Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - ULIP: Learning a Unified Representation of Language, Images, and Point
Clouds for 3D Understanding [110.07170245531464]
現在の3Dモデルは、注釈付きデータの少ないデータセットと、事前に定義されたカテゴリセットによって制限されている。
近年の進歩は、言語などの他のモダリティからの知識を活用することで、同様の問題を著しく軽減できることを示している。
画像,テキスト,3次元点雲の統一表現は,3つのモードからオブジェクト三重項を事前学習することで学習する。
論文 参考訳(メタデータ) (2022-12-10T01:34:47Z) - PartSLIP: Low-Shot Part Segmentation for 3D Point Clouds via Pretrained
Image-Language Models [56.324516906160234]
一般化可能な3D部分分割は重要だが、ビジョンとロボティクスでは難しい。
本稿では,事前学習した画像言語モデルGLIPを利用して,3次元点雲の低ショット部分分割法を提案する。
我々は2Dから3Dへの豊富な知識を、ポイントクラウドレンダリングにおけるGLIPに基づく部分検出と新しい2D-to-3Dラベルリフトアルゴリズムにより転送する。
論文 参考訳(メタデータ) (2022-12-03T06:59:01Z) - Memory-efficient Segmentation of High-resolution Volumetric MicroCT
Images [11.723370840090453]
本稿では,3次元高解像度画像分割のためのメモリ効率の高いネットワークアーキテクチャを提案する。
このネットワークは、2段階のU-netベースのカスケードフレームワークを通じて、グローバル機能とローカル機能の両方を組み込んでいる。
実験により, セグメント化精度とメモリ効率の両方の観点から, 最先端の3Dセグメンテーション法より優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T16:42:48Z) - Super Images -- A New 2D Perspective on 3D Medical Imaging Analysis [0.0]
トレーニング中に3次元知識を効率的に埋め込んで3次元データを扱うための,シンプルで効果的な2次元手法を提案する。
本手法は3次元画像にスライスを並べて超高分解能画像を生成する。
2次元ネットワークのみを利用した3次元ネットワークを実現する一方で、モデルの複雑さはおよそ3倍に減少する。
論文 参考訳(メタデータ) (2022-05-05T09:59:03Z) - Spatial Context-Aware Self-Attention Model For Multi-Organ Segmentation [18.76436457395804]
マルチ組織セグメンテーションは、医学画像解析におけるディープラーニングの最も成功した応用の1つである。
深部畳み込みニューラルネット(CNN)は,CT画像やMRI画像上で臨床応用画像のセグメンテーション性能を達成する上で非常に有望である。
本研究では,高分解能2次元畳み込みによりセグメンテーションを実現する3次元モデルと2次元モデルを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-12-16T21:39:53Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。