論文の概要: An Ensemble of 2.5D ResUnet Based Models for Segmentation for Kidney and
Masses
- arxiv url: http://arxiv.org/abs/2311.15586v1
- Date: Mon, 27 Nov 2023 07:24:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 16:53:57.911335
- Title: An Ensemble of 2.5D ResUnet Based Models for Segmentation for Kidney and
Masses
- Title(参考訳): 腎および腫瘤の分節化のための2.5dレズネットモデルの一構成法
- Authors: Cancan Chen and RongguoZhang
- Abstract要約: CTスキャンによる腎, 腎腫瘍, 腎嚢胞の自動分離は, 課題である。
2.5D ResUnetは、CTスキャンの厚さの広い範囲と不均衡分布を考慮して、効率的な粗大なセマンティックセマンティックセグメンテーションフレームワークを構築するために採用されている。
- 参考スコア(独自算出の注目度): 5.488270456927515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The automatic segmentation of kidney, kidney tumor and kidney cyst on
Computed Tomography (CT) scans is a challenging task due to the indistinct
lesion boundaries and fuzzy texture. Considering the large range and unbalanced
distribution of CT scans' thickness, 2.5D ResUnet are adopted to build an
efficient coarse-to-fine semantic segmentation framework in this work. A set of
489 CT scans are used for training and validation, and an independent
never-before-used CT scans for testing. Finally, we demonstrate the
effectiveness of our proposed method. The dice values on test set are 0.954,
0.792, 0.691, the surface dice values are 0.897, 0.591, 0.541 for kidney, tumor
and cyst, respectively. The average inference time of each CT scan is 20.65s
and the max GPU memory is 3525MB. The results suggest that a better trade-off
between model performance and efficiency.
- Abstract(参考訳): ctスキャンによる腎,腎腫瘍,腎嚢胞の自動分画は,病変境界とファジィテクスチャの欠如が原因で困難な課題である。
2.5D ResUnetは,CTスキャンの厚さの広帯域分布と不均衡分布を考慮し,効率的な粗大なセマンティックセマンティックセグメンテーションフレームワークを構築する。
トレーニングと検証には489個のCTスキャンが使用され、テストには独立した未使用のCTスキャンが使用される。
最後に,提案手法の有効性を示す。
試験セットのサイコロ値は0.954, 0.792, 0.691, 表面サイコロ値は0.897, 0.591, 0.541である。
各CTスキャンの平均推論時間は20.65秒であり、最大GPUメモリは3525MBである。
その結果,モデルの性能と効率のトレードオフが向上した。
関連論文リスト
- Multi-Layer Feature Fusion with Cross-Channel Attention-Based U-Net for Kidney Tumor Segmentation [0.0]
U-Netベースのディープラーニング技術は、自動化された医用画像セグメンテーションのための有望なアプローチとして登場しつつある。
腎腫瘍の診断のためのCTスキャン画像のエンドツーエンド自動セマンティックセマンティックセグメンテーションのための改良されたU-Netモデルを提案する。
論文 参考訳(メタデータ) (2024-10-20T19:02:41Z) - Lung-CADex: Fully automatic Zero-Shot Detection and Classification of Lung Nodules in Thoracic CT Images [45.29301790646322]
コンピュータ支援診断は早期の肺結節の検出に役立ち、その後の結節の特徴づけを促進する。
MedSAMと呼ばれるSegment Anything Modelの変種を用いて肺結節をゼロショットでセグメント化するためのCADeを提案する。
また、放射能特徴のギャラリーを作成し、コントラスト学習を通じて画像と画像のペアを整列させることにより、良性/良性としての結節的特徴付けを行うCADxを提案する。
論文 参考訳(メタデータ) (2024-07-02T19:30:25Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - MRSegmentator: Robust Multi-Modality Segmentation of 40 Classes in MRI and CT Sequences [4.000329151950926]
このモデルは、英国バイオバンクの1200個の手動のMRIスキャン、221個の社内MRIスキャン、1228個のCTスキャンでトレーニングされた。
明確に定義された臓器のセグメンテーションにおいて高い精度を示し、Dice similarity Coefficient(DSC)スコアは左右の肺では0.97、心臓では0.95であった。
また、肝臓 (DSC: 0.96) や腎臓 (DSC: 0.95 left, 0.95 right) のような臓器の頑健性も示し、より可変性を示した。
論文 参考訳(メタデータ) (2024-05-10T13:15:42Z) - A Two-Stage Generative Model with CycleGAN and Joint Diffusion for
MRI-based Brain Tumor Detection [41.454028276986946]
本稿では,脳腫瘍の検出とセグメンテーションを改善するための2段階生成モデル(TSGM)を提案する。
CycleGANは、未ペアデータに基づいてトレーニングされ、データとして正常な画像から異常な画像を生成する。
VE-JPは、合成対の異常画像をガイドとして使用して、健康な画像の再構成を行う。
論文 参考訳(メタデータ) (2023-11-06T12:58:26Z) - Kidney abnormality segmentation in thorax-abdomen CT scans [4.173079849880476]
腎腺腫と腎異常を鑑別するための深層学習手法を提案する。
胸腹部CTで215例の造影CT検査を施行した。
Diceスコアが0.965, 0.947となり, 腎発作を2つの検体で分けた。
論文 参考訳(メタデータ) (2023-09-06T22:04:07Z) - Kidney and Kidney Tumour Segmentation in CT Images [0.0]
本研究は,造影CT画像における腎および腎腫瘍の自動分画法の開発に焦点をあてる。
3D U-Netセグメンテーションモデルを開発した。
試験では、腎臓のDiceスコアが0.8034、腎臓のDiceスコアが0.4713、平均のDiceスコアが0.6374であった。
論文 参考訳(メタデータ) (2022-12-26T08:08:44Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Deep learning-based detection of intravenous contrast in computed
tomography scans [0.7313653675718069]
CTスキャンにおける静脈内(IV)コントラストの同定は、モデル開発と試験のためのデータキュレーションの鍵となる要素である。
我々は,CTスキャン内でIVコントラストを識別するCNNベースのディープラーニングプラットフォームを開発し,検証した。
論文 参考訳(メタデータ) (2021-10-16T00:46:45Z) - H2NF-Net for Brain Tumor Segmentation using Multimodal MR Imaging: 2nd
Place Solution to BraTS Challenge 2020 Segmentation Task [96.49879910148854]
当社のH2NF-Netは、単一およびカスケードのHNF-Netを使用して、異なる脳腫瘍サブリージョンを分割します。
我々は、マルチモーダル脳腫瘍チャレンジ(BraTS)2020データセットでモデルをトレーニングし、評価した。
提案手法は,80名近い参加者のうち,brats 2020チャレンジセグメンテーションタスクで2位となった。
論文 参考訳(メタデータ) (2020-12-30T20:44:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。