論文の概要: Deep Learning-Based Segmentation of Tumors in PET/CT Volumes: Benchmark of Different Architectures and Training Strategies
- arxiv url: http://arxiv.org/abs/2404.09761v1
- Date: Mon, 15 Apr 2024 13:03:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 04:29:54.429286
- Title: Deep Learning-Based Segmentation of Tumors in PET/CT Volumes: Benchmark of Different Architectures and Training Strategies
- Title(参考訳): PET/CTボリュームの深層学習に基づく腫瘍の分離:異なるアーキテクチャと訓練戦略のベンチマーク
- Authors: Monika Górka, Daniel Jaworek, Marek Wodzinski,
- Abstract要約: 本研究は,癌病変の自動分類のためのニューラルネットワークアーキテクチャとトレーニング戦略について検討する。
V-NetモデルとnnU-Netモデルは、それぞれのデータセットに対して最も効果的であった。
がんのない症例をAutoPETデータセットから除去することで,ほとんどのモデルの性能が向上した。
- 参考スコア(独自算出の注目度): 0.12301374769426145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cancer is one of the leading causes of death globally, and early diagnosis is crucial for patient survival. Deep learning algorithms have great potential for automatic cancer analysis. Artificial intelligence has achieved high performance in recognizing and segmenting single lesions. However, diagnosing multiple lesions remains a challenge. This study examines and compares various neural network architectures and training strategies for automatically segmentation of cancer lesions using PET/CT images from the head, neck, and whole body. The authors analyzed datasets from the AutoPET and HECKTOR challenges, exploring popular single-step segmentation architectures and presenting a two-step approach. The results indicate that the V-Net and nnU-Net models were the most effective for their respective datasets. The results for the HECKTOR dataset ranged from 0.75 to 0.76 for the aggregated Dice coefficient. Eliminating cancer-free cases from the AutoPET dataset was found to improve the performance of most models. In the case of AutoPET data, the average segmentation efficiency after training only on images containing cancer lesions increased from 0.55 to 0.66 for the classic Dice coefficient and from 0.65 to 0.73 for the aggregated Dice coefficient. The research demonstrates the potential of artificial intelligence in precise oncological diagnostics and may contribute to the development of more targeted and effective cancer assessment techniques.
- Abstract(参考訳): がんは世界的な死因の1つであり、早期診断は患者の生存に不可欠である。
ディープラーニングアルゴリズムは、自動がん解析に大きな可能性を秘めている。
人工知能は単一病変の認識とセグメンテーションにおいて高いパフォーマンスを達成している。
しかし,多発性病変の診断は依然として困難である。
本研究では, 頭部, 頸部, 全身のPET/CT画像を用いて, 癌病変を自動的に分類するためのニューラルネットワークアーキテクチャとトレーニング戦略について検討し, 比較を行った。
著者らはAutoPETとHECKTORの課題からデータセットを分析し、人気のあるシングルステップセグメンテーションアーキテクチャを探求し、2段階のアプローチを提示した。
その結果,V-NetモデルとnnU-Netモデルが最も有効であることが示唆された。
HECKTORデータセットの結果は、集計されたDice係数の0.75から0.76まで変化した。
がんのない症例をAutoPETデータセットから除去することで,ほとんどのモデルの性能が向上した。
オートPETデータでは, がん病変を含む画像のみの訓練後のセグメンテーション効率は, 古典的Dice係数0.55から0.66, 集約的Dice係数0.65から0.73に増加した。
この研究は、正確な腫瘍診断における人工知能の可能性を示し、より標的的で効果的ながん評価技術の開発に寄与する可能性がある。
関連論文リスト
- Medical-GAT: Cancer Document Classification Leveraging Graph-Based Residual Network for Scenarios with Limited Data [2.913761513290171]
我々は, 甲状腺癌, 大腸癌, 肺癌, 一般の話題に分類した, 1,874 の生医学的抄録を収集した。
我々の研究は、特にデータスカースシナリオにおいて、分類性能を改善するためにこのデータセットを活用することに焦点を当てている。
がん関連文書のセマンティック情報と構造的関係をキャプチャする複数のグラフアテンション層を備えたResidual Graph Attention Network(R-GAT)を導入する。
論文 参考訳(メタデータ) (2024-10-19T20:07:40Z) - Efficient Quality Control of Whole Slide Pathology Images with Human-in-the-loop Training [3.2646075700744928]
Histo whole slide image (WSI) は、特に精度オンコロジーにおいて、ディープラーニングに基づく診断ソリューションの開発に広く利用されている。
これらの診断ソフトウェアのほとんどは、トレーニングやテストデータにおけるバイアスや不純物に弱いため、不正確な診断につながる可能性がある。
我々は、WSIを6つの組織領域に分離する、頑健だが軽量なディープラーニングベースの分類器であるHistoROIを紹介した。
論文 参考訳(メタデータ) (2024-09-29T07:08:45Z) - AutoPET Challenge: Tumour Synthesis for Data Augmentation [26.236831356731017]
我々は,CT画像のためのDiffTumor法を適用し,病変のあるPET-CT画像を生成する。
提案手法では,AutoPETデータセット上で生成モデルをトレーニングし,トレーニングデータの拡張に使用する。
以上の結果から,拡張データセットでトレーニングしたモデルでは,Diceスコアが向上し,データ拡張アプローチの可能性が示された。
論文 参考訳(メタデータ) (2024-09-12T14:23:19Z) - Lung-CADex: Fully automatic Zero-Shot Detection and Classification of Lung Nodules in Thoracic CT Images [45.29301790646322]
コンピュータ支援診断は早期の肺結節の検出に役立ち、その後の結節の特徴づけを促進する。
MedSAMと呼ばれるSegment Anything Modelの変種を用いて肺結節をゼロショットでセグメント化するためのCADeを提案する。
また、放射能特徴のギャラリーを作成し、コントラスト学習を通じて画像と画像のペアを整列させることにより、良性/良性としての結節的特徴付けを行うCADxを提案する。
論文 参考訳(メタデータ) (2024-07-02T19:30:25Z) - Towards Tumour Graph Learning for Survival Prediction in Head & Neck
Cancer Patients [0.0]
2020年に世界で100万人近い頭頸部がんが診断された。
自動セグメンテーションと予後推定アプローチは、各患者が最も効果的な治療を受けるのに役立つ。
本稿では、任意の視野(FoV)PETとCT登録スキャンでこれらの機能を実行するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-17T09:32:06Z) - CLIP-Driven Universal Model for Organ Segmentation and Tumor Detection [36.08551407926805]
本稿では,Contrastive Language-Image Pre-trainingから学習したテキストをセグメンテーションモデルに組み込んだCLIP駆動ユニバーサルモデルを提案する。
提案モデルは14のデータセットから作成され、合計3,410個のCTスキャンを使用してトレーニングを行い、さらに3つの追加データセットから6,162個の外部CTスキャンで評価する。
論文 参考訳(メタデータ) (2023-01-02T18:07:44Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Multimodal PET/CT Tumour Segmentation and Prediction of Progression-Free
Survival using a Full-Scale UNet with Attention [0.8138288420049126]
MICCAI 2021 ヘッドとネックタマ (HECKTOR) セグメンテーションと結果予測の課題は、セグメンテーション法を比較するためのプラットフォームを作成する。
腫瘍容積セグメンテーションのために複数のニューラルネットワークを訓練し,これらのセグメンテーションを組込み,平均Dice類似度係数0.75をクロスバリデーションで達成した。
患者進行自由生存の予測のために,臨床,放射線学,深層学習機能を組み合わせたCox比例的ハザード回帰法を提案する。
論文 参考訳(メタデータ) (2021-11-06T10:28:48Z) - Lung Cancer Lesion Detection in Histopathology Images Using Graph-Based
Sparse PCA Network [93.22587316229954]
ヘマトキシリンとエオシン(H&E)で染色した組織学的肺スライドにおける癌病変の自動検出のためのグラフベーススパース成分分析(GS-PCA)ネットワークを提案する。
我々は,SVM K-rasG12D肺がんモデルから得られたH&Eスライダーの精度・リコール率,Fスコア,谷本係数,レシーバ演算子特性(ROC)の曲線下領域を用いて,提案アルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2021-10-27T19:28:36Z) - Deep learning-based COVID-19 pneumonia classification using chest CT
images: model generalizability [54.86482395312936]
深層学習(DL)分類モデルは、異なる国の3DCTデータセット上で、COVID-19陽性患者を特定するために訓練された。
我々は、データセットと72%の列車、8%の検証、20%のテストデータを組み合わせたDLベースの9つの同一分類モデルを訓練した。
複数のデータセットでトレーニングされ、トレーニングに使用されるデータセットの1つからテストセットで評価されたモデルは、よりよいパフォーマンスを示した。
論文 参考訳(メタデータ) (2021-02-18T21:14:52Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。