論文の概要: Segmentation of Kidney Tumors on Non-Contrast CT Images using
Protuberance Detection Network
- arxiv url: http://arxiv.org/abs/2312.04796v1
- Date: Fri, 8 Dec 2023 02:12:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 16:22:20.825009
- Title: Segmentation of Kidney Tumors on Non-Contrast CT Images using
Protuberance Detection Network
- Title(参考訳): Protuberance Detection Network を用いた非造影CT画像上の腎腫瘍の分離
- Authors: Taro Hatsutani, Akimichi Ichinose, Keigo Nakamura, Yoshiro Kitamura
- Abstract要約: 造影CT(CECT)画像では、ほとんどの腎腫瘍、特に腎癌は、正常な組織と比較して強度の値が異なる。
等度性腫瘍と呼ばれるいくつかの腫瘍は、周囲の正常な組織に類似した強度の値を持ち、臓器の形状の変化によってのみ検出できる。
腎腫瘍のより優れた分節を可能にするために,腎臓の隆起領域を明示的に捕捉する新しい枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.8438695039581141
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Many renal cancers are incidentally found on non-contrast CT (NCCT) images.
On contrast-enhanced CT (CECT) images, most kidney tumors, especially renal
cancers, have different intensity values compared to normal tissues. However,
on NCCT images, some tumors called isodensity tumors, have similar intensity
values to the surrounding normal tissues, and can only be detected through a
change in organ shape. Several deep learning methods which segment kidney
tumors from CECT images have been proposed and showed promising results.
However, these methods fail to capture such changes in organ shape on NCCT
images. In this paper, we present a novel framework, which can explicitly
capture protruded regions in kidneys to enable a better segmentation of kidney
tumors. We created a synthetic mask dataset that simulates a protuberance, and
trained a segmentation network to separate the protruded regions from the
normal kidney regions. To achieve the segmentation of whole tumors, our
framework consists of three networks. The first network is a conventional
semantic segmentation network which extracts a kidney region mask and an
initial tumor region mask. The second network, which we name protuberance
detection network, identifies the protruded regions from the kidney region
mask. Given the initial tumor region mask and the protruded region mask, the
last network fuses them and predicts the final kidney tumor mask accurately.
The proposed method was evaluated on a publicly available KiTS19 dataset, which
contains 108 NCCT images, and showed that our method achieved a higher dice
score of 0.615 (+0.097) and sensitivity of 0.721 (+0.103) compared to 3D-UNet.
To the best of our knowledge, this is the first deep learning method that is
specifically designed for kidney tumor segmentation on NCCT images.
- Abstract(参考訳): 腎癌は非造影CT(non-contrast CT)画像で偶然発見された。
造影ct(cect)画像では,腎腫瘍,特に腎癌は正常組織と比較して強度値が異なる。
しかし、NCCT画像では、等度性腫瘍と呼ばれる一部の腫瘍は周囲の正常組織と同様の強度を有し、臓器形状の変化によってのみ検出できる。
CECT画像から腎腫瘍を分離する深層学習法が提案され,有望な結果が得られた。
しかし,これらの手法はNCCT画像の臓器形状の変化を捉えられなかった。
本稿では,腎腫瘍のより優れた分節を可能にするために,腎臓の隆起領域を明示的に捕捉する新しい枠組みを提案する。
プロトベーションをシミュレートする合成マスクデータセットを作成し,正常な腎臓領域からプロトルード領域を分離するセグメンテーションネットワークを訓練した。
腫瘍全体のセグメンテーションを実現するため,本フレームワークは3つのネットワークから構成される。
第1のネットワークは、腎臓領域マスクと初期腫瘍領域マスクを抽出する従来のセマンティックセグメンテーションネットワークである。
プロテバンス検出ネットワークと呼ばれる第2のネットワークは、腎臓領域のマスクから突出した領域を識別する。
初期腫瘍領域マスクと突出領域マスクとから、最終ネットワークはそれらを融合させ、最終腎臓腫瘍マスクを正確に予測する。
提案手法は 108 ncct 画像を含む kits19 データセット上で評価され、3d-unet と比較して 0.615 (+0.097) 高いダイススコアと 0.721 (+0.103) の感度を達成した。
私たちの知る限りでは、これはncct画像上の腎臓腫瘍のセグメンテーション用に特別に設計された最初の深層学習方法です。
関連論文リスト
- Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Parotid Gland MRI Segmentation Based on Swin-Unet and Multimodal Images [7.934520786027202]
耳下腺腫瘍は頭頸部腫瘍の約2%から10%を占める。
ディープラーニングの手法は急速に発展しており、特にTransformerはコンピュータビジョンにおける従来の畳み込みニューラルネットワークに勝っている。
テストセットのモデルのDSCは88.63%、MPAは99.31%、MIoUは83.99%、HDは3.04であった。
論文 参考訳(メタデータ) (2022-06-07T14:20:53Z) - Exploiting full Resolution Feature Context for Liver Tumor and Vessel
Segmentation via Fusion Encoder: Application to Liver Tumor and Vessel 3D
reconstruction [19.048952361722876]
本稿ではTransformerとSEBottleNetをベースとしたTransFusionNetと呼ばれるマルチスケール機能コンテキスト融合ネットワークを提案する。
実験の結果、TransFusionNetは、LITSと3Dircadbの両方の公開データセットと臨床データセットの最先端手法よりも優れていることがわかった。
また,トレーニングモデルに基づく自動3次元再構成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-26T02:48:48Z) - Segmentation of Lung Tumor from CT Images using Deep Supervision [0.8733639720576208]
肺がんは世界中のほとんどの国で死因となっている。
本稿では,LOTUSデータセットに2次元離散ウェーブレット変換(DWT)を適用し,肺腫瘍のセグメンテーションにアプローチする。
論文 参考訳(メタデータ) (2021-11-17T17:50:18Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Global Guidance Network for Breast Lesion Segmentation in Ultrasound
Images [84.03487786163781]
我々は,大域的誘導ブロック(GGB)と乳房病変境界検出モジュールを備えた深部畳み込みニューラルネットワークを開発した。
当社のネットワークは、乳房超音波病変分割における他の医療画像分割方法および最近のセマンティックセグメンテーション方法よりも優れています。
論文 参考訳(メタデータ) (2021-04-05T13:15:22Z) - ESTAN: Enhanced Small Tumor-Aware Network for Breast Ultrasound Image
Segmentation [0.0]
本稿では,乳腺腫瘍を正確に分類するための新しいディープニューラルネットワークアーキテクチャであるESTAN(Enhanced Small tumor-Aware Network)を提案する。
ESTANは、2つのエンコーダを導入し、異なるスケールで画像コンテキスト情報を抽出し、フューズする。
論文 参考訳(メタデータ) (2020-09-27T16:42:59Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z) - Gleason Grading of Histology Prostate Images through Semantic
Segmentation via Residual U-Net [60.145440290349796]
前立腺癌の最終診断は、病理学者による前立腺生検におけるGleasonパターンの視覚的検出に基づいている。
コンピュータ支援診断システムは、組織内のがんのパターンを分類し分類することができる。
この研究の方法論的核心は、がん組織を分節できる残留ブロックで修正された画像分割のためのU-Net畳み込みニューラルネットワークである。
論文 参考訳(メタデータ) (2020-05-22T19:49:10Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z) - Brain Tumor Segmentation by Cascaded Deep Neural Networks Using Multiple
Image Scales [12.463038471051478]
頭蓋内腫瘍は、通常は制御不能に増殖する細胞群である。
脳腫瘍の早期発見と評価はMRI(MRI)による予防に不可欠である
論文 参考訳(メタデータ) (2020-02-05T20:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。