論文の概要: Submanifold Sparse Convolutional Networks for Automated 3D Segmentation of Kidneys and Kidney Tumours in Computed Tomography
- arxiv url: http://arxiv.org/abs/2511.04334v1
- Date: Thu, 06 Nov 2025 13:17:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.42568
- Title: Submanifold Sparse Convolutional Networks for Automated 3D Segmentation of Kidneys and Kidney Tumours in Computed Tomography
- Title(参考訳): コンピュータトモグラフィーにおけるキドニーとキドニーの3次元自動分割のためのサブマニフォールドスパース畳み込みネットワーク
- Authors: Saúl Alonso-Monsalve, Leigh H. Whitehead, Adam Aurisano, Lorena Escudero Sanchez,
- Abstract要約: 本稿では,ボクセルスペーシフィケーションとサブマニフォールドスパース畳み込みネットワークの2つの段階に分けて,新しい手法を提案する。
この方法では、高解像度の入力とネイティブな3Dモデルアーキテクチャでセグメンテーションを行うことができる。
腎癌患者のCT像の文脈におけるこの方法論の展開について,KiTS23チャレンジから検討した。
- 参考スコア(独自算出の注目度): 0.7604022206716486
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The accurate delineation of tumours in radiological images like Computed Tomography is a very specialised and time-consuming task, and currently a bottleneck preventing quantitative analyses to be performed routinely in the clinical setting. For this reason, developing methods for the automated segmentation of tumours in medical imaging is of the utmost importance and has driven significant efforts in recent years. However, challenges regarding the impracticality of 3D scans, given the large amount of voxels to be analysed, usually requires the downsampling of such images or using patches thereof when applying traditional convolutional neural networks. To overcome this problem, in this paper we propose a new methodology that uses, divided into two stages, voxel sparsification and submanifold sparse convolutional networks. This method allows segmentations to be performed with high-resolution inputs and a native 3D model architecture, obtaining state-of-the-art accuracies while significantly reducing the computational resources needed in terms of GPU memory and time. We studied the deployment of this methodology in the context of Computed Tomography images of renal cancer patients from the KiTS23 challenge, and our method achieved results competitive with the challenge winners, with Dice similarity coefficients of 95.8% for kidneys + masses, 85.7% for tumours + cysts, and 80.3% for tumours alone. Crucially, our method also offers significant computational improvements, achieving up to a 60% reduction in inference time and up to a 75\% reduction in VRAM usage compared to an equivalent dense architecture, across both CPU and various GPU cards tested.
- Abstract(参考訳): Computed Tomographyのような放射線画像における腫瘍の正確な描写は、非常に専門的で時間を要する作業であり、現在、臨床現場で日常的に行われる定量的解析を妨害するボトルネックとなっている。
このため, 医用画像における腫瘍の自動分離法の開発が最重要であり, 近年, 重要な取り組みが進められている。
しかし、3Dスキャンの非現実性に関する課題は、大量のボクセルを解析するためには、通常、従来の畳み込みニューラルネットワークを適用する際に、そのような画像のダウンサンプリングやパッチの使用が必要である。
本稿では,この問題を解決するために,ボクセルスペーサー化とサブマニフォールドスパース畳み込みネットワークという2つの段階に分けて,新しい手法を提案する。
この方法では、セグメント化を高精細な入力とネイティブな3Dモデルアーキテクチャで行うことができ、最先端の精度を得ながら、GPUメモリと時間で必要な計算資源を大幅に削減できる。
本手法は, 腎癌患者のCT像をKiTS23チャレンジから検討し, Dice類似度係数95.8%, 腫瘍+嚢胞85.7%, 腫瘍単独80.3%と, 課題の勝者と競合する結果を得た。
重要な点として,本手法は,CPUと各種GPUカードの双方で,同等の高密度アーキテクチャに比べて最大60%の推論時間と最大75%のVRAM使用量の削減を実現し,計算精度を向上する。
関連論文リスト
- Advancing Brain Tumor Segmentation via Attention-based 3D U-Net Architecture and Digital Image Processing [0.0]
本研究の目的は,脳腫瘍のセグメンテーションの性能を高めることであり,最終的に診断の信頼性を向上させることである。
提案したモデルは、この目標を達成するために、さまざまなパフォーマンス指標を使用して、BraTS 2020データセットで徹底的に評価され、評価される。
論文 参考訳(メタデータ) (2025-10-21T22:11:19Z) - DRBD-Mamba for Robust and Efficient Brain Tumor Segmentation with Analytical Insights [54.87947751720332]
脳腫瘍の正確なセグメンテーションは、臨床診断と治療に重要である。
マンバを拠点とするState Space Modelsは、有望なパフォーマンスを示している。
本稿では,計算オーバーヘッドを最小限に抑えながら,マルチスケールの長距離依存関係をキャプチャするマルチ解像度双方向マンバを提案する。
論文 参考訳(メタデータ) (2025-10-16T07:31:21Z) - Swin-Tempo: Temporal-Aware Lung Nodule Detection in CT Scans as Video
Sequences Using Swin Transformer-Enhanced UNet [2.7547288571938795]
本稿では、畳み込みニューラルネットワークと視覚変換器の長所を利用する革新的なモデルを提案する。
ビデオ中の物体検出にインスパイアされた各3次元CT画像をビデオとして扱い、個々のスライスをフレームとして、肺結節をオブジェクトとして扱い、時系列アプリケーションを可能にする。
論文 参考訳(メタデータ) (2023-10-05T07:48:55Z) - Diffusion Models for Counterfactual Generation and Anomaly Detection in Brain Images [39.94162291765236]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - Automated Segmentation of Computed Tomography Images with Submanifold
Sparse Convolutional Networks [2.064612766965483]
ダウンサンプリングの代替として,入力画像とサブマニフォールドスパース畳み込みネットワークのスペース化プロセスを提案する。
概念実証として,本手法を腎癌患者のCT画像に応用した。
論文 参考訳(メタデータ) (2022-12-06T09:47:52Z) - Development of an algorithm for medical image segmentation of bone
tissue in interaction with metallic implants [58.720142291102135]
本研究では,金属インプラントとの接触部における骨成長の計算アルゴリズムを開発した。
骨とインプラント組織はトレーニングデータセットに手動でセグメンテーションされた。
ネットワーク精度の面では、モデルは約98%に達した。
論文 参考訳(メタデータ) (2022-04-22T08:17:20Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z) - Multi-Scale Supervised 3D U-Net for Kidneys and Kidney Tumor
Segmentation [0.8397730500554047]
腎腫瘍と腎腫瘍をCT画像から自動的に分離するマルチスケール3D U-Net(MSS U-Net)を提案する。
我々のアーキテクチャは、3次元U-Netトレーニング効率を高めるために、深い監視と指数対数損失を組み合わせる。
このアーキテクチャは、KiTS19パブリックデータセットのデータを使用した最先端の作業と比較して、優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-04-17T08:25:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。