論文の概要: Deep Learning-Based Segmentation of Tumors in PET/CT Volumes: Benchmark of Different Architectures and Training Strategies
- arxiv url: http://arxiv.org/abs/2404.09761v1
- Date: Mon, 15 Apr 2024 13:03:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 04:29:54.429286
- Title: Deep Learning-Based Segmentation of Tumors in PET/CT Volumes: Benchmark of Different Architectures and Training Strategies
- Title(参考訳): PET/CTボリュームの深層学習に基づく腫瘍の分離:異なるアーキテクチャと訓練戦略のベンチマーク
- Authors: Monika Górka, Daniel Jaworek, Marek Wodzinski,
- Abstract要約: 本研究は,癌病変の自動分類のためのニューラルネットワークアーキテクチャとトレーニング戦略について検討する。
V-NetモデルとnnU-Netモデルは、それぞれのデータセットに対して最も効果的であった。
がんのない症例をAutoPETデータセットから除去することで,ほとんどのモデルの性能が向上した。
- 参考スコア(独自算出の注目度): 0.12301374769426145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cancer is one of the leading causes of death globally, and early diagnosis is crucial for patient survival. Deep learning algorithms have great potential for automatic cancer analysis. Artificial intelligence has achieved high performance in recognizing and segmenting single lesions. However, diagnosing multiple lesions remains a challenge. This study examines and compares various neural network architectures and training strategies for automatically segmentation of cancer lesions using PET/CT images from the head, neck, and whole body. The authors analyzed datasets from the AutoPET and HECKTOR challenges, exploring popular single-step segmentation architectures and presenting a two-step approach. The results indicate that the V-Net and nnU-Net models were the most effective for their respective datasets. The results for the HECKTOR dataset ranged from 0.75 to 0.76 for the aggregated Dice coefficient. Eliminating cancer-free cases from the AutoPET dataset was found to improve the performance of most models. In the case of AutoPET data, the average segmentation efficiency after training only on images containing cancer lesions increased from 0.55 to 0.66 for the classic Dice coefficient and from 0.65 to 0.73 for the aggregated Dice coefficient. The research demonstrates the potential of artificial intelligence in precise oncological diagnostics and may contribute to the development of more targeted and effective cancer assessment techniques.
- Abstract(参考訳): がんは世界的な死因の1つであり、早期診断は患者の生存に不可欠である。
ディープラーニングアルゴリズムは、自動がん解析に大きな可能性を秘めている。
人工知能は単一病変の認識とセグメンテーションにおいて高いパフォーマンスを達成している。
しかし,多発性病変の診断は依然として困難である。
本研究では, 頭部, 頸部, 全身のPET/CT画像を用いて, 癌病変を自動的に分類するためのニューラルネットワークアーキテクチャとトレーニング戦略について検討し, 比較を行った。
著者らはAutoPETとHECKTORの課題からデータセットを分析し、人気のあるシングルステップセグメンテーションアーキテクチャを探求し、2段階のアプローチを提示した。
その結果,V-NetモデルとnnU-Netモデルが最も有効であることが示唆された。
HECKTORデータセットの結果は、集計されたDice係数の0.75から0.76まで変化した。
がんのない症例をAutoPETデータセットから除去することで,ほとんどのモデルの性能が向上した。
オートPETデータでは, がん病変を含む画像のみの訓練後のセグメンテーション効率は, 古典的Dice係数0.55から0.66, 集約的Dice係数0.65から0.73に増加した。
この研究は、正確な腫瘍診断における人工知能の可能性を示し、より標的的で効果的ながん評価技術の開発に寄与する可能性がある。
関連論文リスト
- Prediction of recurrence free survival of head and neck cancer using
PET/CT radiomics and clinical information [0.0]
口腔咽頭HNC患者の再発性自由生存(RFS)を予測するコックス比例ハザード(CoxPH)モデルを構築した。
Computed Tomography (CT) と Positron Emission Tomography (PET) の腫瘍領域から抽出した臨床情報とマルチモーダルラジオミクスの特徴を利用する。
本研究は,放射線抽出におけるセグメンテーションの精度がPETとCTに異なる影響があることを確認した。
論文 参考訳(メタデータ) (2024-02-28T15:35:41Z) - Prototypical Cross-domain Knowledge Transfer for Cervical Dysplasia
Visual Inspection [37.66559952448587]
そこで本研究では,異なるが関連する臨床研究で収集されたクロスドメイン頚部画像を利用して,モデルの性能を向上させることを提案する。
データセット間で伝達可能な情報を堅牢に学習するために,新しいプロトタイプベースの知識フィルタリング手法を提案する。
提案法は,最先端の頚椎椎間板形成検査において,Top-1の精度が4.7%向上した。
論文 参考訳(メタデータ) (2023-08-19T11:25:09Z) - Towards Tumour Graph Learning for Survival Prediction in Head & Neck
Cancer Patients [0.0]
2020年に世界で100万人近い頭頸部がんが診断された。
自動セグメンテーションと予後推定アプローチは、各患者が最も効果的な治療を受けるのに役立つ。
本稿では、任意の視野(FoV)PETとCT登録スキャンでこれらの機能を実行するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-17T09:32:06Z) - CLIP-Driven Universal Model for Organ Segmentation and Tumor Detection [36.08551407926805]
本稿では,Contrastive Language-Image Pre-trainingから学習したテキストをセグメンテーションモデルに組み込んだCLIP駆動ユニバーサルモデルを提案する。
提案モデルは14のデータセットから作成され、合計3,410個のCTスキャンを使用してトレーニングを行い、さらに3つの追加データセットから6,162個の外部CTスキャンで評価する。
論文 参考訳(メタデータ) (2023-01-02T18:07:44Z) - Automatic Segmentation of Head and Neck Tumor: How Powerful Transformers
Are? [0.0]
我々は,H&N腫瘍を自動デライン化するための視覚変換器を用いた手法を開発した。
我々は、その結果をCNNベースのモデルと比較する。
選択した変換器ベースモデルにより,CNNベースモデルと同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-01-17T07:31:52Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Multimodal PET/CT Tumour Segmentation and Prediction of Progression-Free
Survival using a Full-Scale UNet with Attention [0.8138288420049126]
MICCAI 2021 ヘッドとネックタマ (HECKTOR) セグメンテーションと結果予測の課題は、セグメンテーション法を比較するためのプラットフォームを作成する。
腫瘍容積セグメンテーションのために複数のニューラルネットワークを訓練し,これらのセグメンテーションを組込み,平均Dice類似度係数0.75をクロスバリデーションで達成した。
患者進行自由生存の予測のために,臨床,放射線学,深層学習機能を組み合わせたCox比例的ハザード回帰法を提案する。
論文 参考訳(メタデータ) (2021-11-06T10:28:48Z) - Lung Cancer Lesion Detection in Histopathology Images Using Graph-Based
Sparse PCA Network [93.22587316229954]
ヘマトキシリンとエオシン(H&E)で染色した組織学的肺スライドにおける癌病変の自動検出のためのグラフベーススパース成分分析(GS-PCA)ネットワークを提案する。
我々は,SVM K-rasG12D肺がんモデルから得られたH&Eスライダーの精度・リコール率,Fスコア,谷本係数,レシーバ演算子特性(ROC)の曲線下領域を用いて,提案アルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2021-10-27T19:28:36Z) - Deep learning-based COVID-19 pneumonia classification using chest CT
images: model generalizability [54.86482395312936]
深層学習(DL)分類モデルは、異なる国の3DCTデータセット上で、COVID-19陽性患者を特定するために訓練された。
我々は、データセットと72%の列車、8%の検証、20%のテストデータを組み合わせたDLベースの9つの同一分類モデルを訓練した。
複数のデータセットでトレーニングされ、トレーニングに使用されるデータセットの1つからテストセットで評価されたモデルは、よりよいパフォーマンスを示した。
論文 参考訳(メタデータ) (2021-02-18T21:14:52Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Harvesting, Detecting, and Characterizing Liver Lesions from Large-scale
Multi-phase CT Data via Deep Dynamic Texture Learning [24.633802585888812]
ダイナミックコントラストCT(Dynamic contrast Computed Tomography)のための完全自動多段階肝腫瘍評価フレームワークを提案する。
本システムでは, 腫瘍提案検出, 腫瘍採取, 原発部位の選択, 深部テクスチャに基づく腫瘍評価の4段階からなる。
論文 参考訳(メタデータ) (2020-06-28T19:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。