論文の概要: Performance of a Deep Learning-Based Segmentation Model for Pancreatic Tumors on Public Endoscopic Ultrasound Datasets
- arxiv url: http://arxiv.org/abs/2601.05937v1
- Date: Fri, 09 Jan 2026 16:48:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:50.046996
- Title: Performance of a Deep Learning-Based Segmentation Model for Pancreatic Tumors on Public Endoscopic Ultrasound Datasets
- Title(参考訳): 広汎な内視鏡的超音波データセットを用いた膵腫瘍の深層学習モデルの性能評価
- Authors: Pankaj Gupta, Priya Mudgil, Niharika Dutta, Kartik Bose, Nitish Kumar, Anupam Kumar, Jimil Shah, Vaneet Jearth, Jayanta Samanta, Vishal Sharma, Harshal Mandavdhare, Surinder Rana, Saroj K Sinha, Usha Dutta,
- Abstract要約: 膵癌は最も攻撃的ながんの1つであり、生存率も低い。
本研究では, 膵腫瘍に対するVision Transformerを用いたディープラーニングセグメンテーションモデルについて検討した。
- 参考スコア(独自算出の注目度): 2.925528117330222
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Background: Pancreatic cancer is one of the most aggressive cancers, with poor survival rates. Endoscopic ultrasound (EUS) is a key diagnostic modality, but its effectiveness is constrained by operator subjectivity. This study evaluates a Vision Transformer-based deep learning segmentation model for pancreatic tumors. Methods: A segmentation model using the USFM framework with a Vision Transformer backbone was trained and validated with 17,367 EUS images (from two public datasets) in 5-fold cross-validation. The model was tested on an independent dataset of 350 EUS images from another public dataset, manually segmented by radiologists. Preprocessing included grayscale conversion, cropping, and resizing to 512x512 pixels. Metrics included Dice similarity coefficient (DSC), intersection over union (IoU), sensitivity, specificity, and accuracy. Results: In 5-fold cross-validation, the model achieved a mean DSC of 0.651 +/- 0.738, IoU of 0.579 +/- 0.658, sensitivity of 69.8%, specificity of 98.8%, and accuracy of 97.5%. For the external validation set, the model achieved a DSC of 0.657 (95% CI: 0.634-0.769), IoU of 0.614 (95% CI: 0.590-0.689), sensitivity of 71.8%, and specificity of 97.7%. Results were consistent, but 9.7% of cases exhibited erroneous multiple predictions. Conclusions: The Vision Transformer-based model demonstrated strong performance for pancreatic tumor segmentation in EUS images. However, dataset heterogeneity and limited external validation highlight the need for further refinement, standardization, and prospective studies.
- Abstract(参考訳): 背景:膵癌は最も攻撃的ながんの1つであり、生存率も低い。
内視鏡的超音波検査(EUS)は重要な診断法であるが,その効果は操作者の主観性によって制限される。
本研究では, 膵腫瘍に対するVision Transformerを用いたディープラーニングセグメンテーションモデルについて検討した。
方法: ビジョントランスフォーマーのバックボーンを備えたUSFMフレームワークを用いたセグメンテーションモデルをトレーニングし,5倍のクロスバリデーションで17,367のEUSイメージ(2つのパブリックデータセットから)で検証した。
このモデルは、別の公開データセットから350EUS画像の独立したデータセットでテストされ、手動で放射線学者によってセグメンテーションされた。
前処理にはグレースケールの変換、トリミング、512x512ピクセルへのリサイズが含まれていた。
指標はDice similarity coefficient (DSC), intersection over union (IoU), sensitivity, specificity, and accuracyであった。
結果: 5倍のクロスバリデーションでは、平均DSCは0.651 +/- 0.738、IoUは0.579 +/- 0.658、感度は69.8%、特異性は98.8%、精度は97.5%であった。
外部検証セットでは、DSCは0.657(95% CI: 0.634-0.769)、IoUは0.614(95% CI: 0.590-0.689)、感度は71.8%、特異度は97.7%に達した。
結果は一貫していたが,9.7%の症例で誤予測がみられた。
結語: Vision Transformer-based model showed strong performance for pancreatic tumor segmentation in EUS image。
しかし、データセットの不均一性と限られた外部検証は、さらなる洗練、標準化、そして将来的な研究の必要性を強調している。
関連論文リスト
- MSRANetV2: An Explainable Deep Learning Architecture for Multi-class Classification of Colorectal Histopathological Images [3.4859776888706233]
大腸癌(CRC)は、世界中のがん関連死亡率の高い疾患である。
ディープラーニングアルゴリズムは、診断精度と効率を高めるための強力なアプローチとなっている。
大腸組織像の分類に最適化されたMSRANetV2という畳み込みニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-10-28T07:22:34Z) - Automated Cervical Os Segmentation for Camera-Guided, Speculum-Free Screening [38.85521544870542]
本研究は,経血管内視鏡的画像における頸部骨のリアルタイム分割のための深層学習法について検討した。
DICE(0.50 pm 0.31)と検出レート(0.87 pm 0.33)を達成した。
これらの結果は、非専門的な使用をサポートするために、自動os認識を投機のない頸部検診装置に統合するための基盤を確立する。
論文 参考訳(メタデータ) (2025-09-12T14:19:27Z) - Multi-centric AI Model for Unruptured Intracranial Aneurysm Detection and Volumetric Segmentation in 3D TOF-MRI [6.397650339311053]
我々は3DTOF-MRIで未破裂脳動脈瘤(UICA)の検出と分節を併用したオープンソースのnnU-NetベースのAIモデルを開発した。
4つの異なるトレーニングデータセットが作成され、nnU-Netフレームワークがモデル開発に使用された。
一次モデルは85%の感度と0.23FP/ケースレートを示し、ADAM-challengeの勝者(61%)と、ADAMデータでトレーニングされたnnU-Net(51%)を感度で上回った。
論文 参考訳(メタデータ) (2024-08-30T08:57:04Z) - Evolution-aware VAriance (EVA) Coreset Selection for Medical Image Classification [37.57407966808067]
進化対応可変(EVA)と呼ばれる新しいコアセット選択戦略を提案する。
EVAは10%のトレーニングデータで98.27%の精度を達成しているが、完全なトレーニングセットでは97.20%である。
論文 参考訳(メタデータ) (2024-06-09T07:22:50Z) - TotalSegmentator MRI: Robust Sequence-independent Segmentation of Multiple Anatomic Structures in MRI [59.86827659781022]
nnU-Netモデル(TotalSegmentator)をMRIおよび80原子構造で訓練した。
予測されたセグメンテーションと専門家基準セグメンテーションとの間には,ディススコアが算出され,モデル性能が評価された。
オープンソースで使いやすいモデルは、80構造の自動的で堅牢なセグメンテーションを可能にする。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Quantifying uncertainty in lung cancer segmentation with foundation models applied to mixed-domain datasets [6.712251433139412]
医用画像基盤モデルは、極小調整で臓器や腫瘍を分割する能力を示している。
これらのモデルは通常、タスク固有の分散(ID)データセットで評価される。
我々は、自己教師付き学習(SSL)で訓練された複数の基礎モデルの性能を評価するために、計算的に高速なメトリクスの包括的セットを導入する。
SMITは最も高いF1スコア(LRAD: 0.60, 5Rater: 0.64)と低いエントロピー(LRAD: 0.06, 5Rater: 0.12)を生成し、高い腫瘍検出率と確実なセグメンテーションを示した。
論文 参考訳(メタデータ) (2024-03-19T19:36:48Z) - A Two-Stage Generative Model with CycleGAN and Joint Diffusion for
MRI-based Brain Tumor Detection [41.454028276986946]
本稿では,脳腫瘍の検出とセグメンテーションを改善するための2段階生成モデル(TSGM)を提案する。
CycleGANは、未ペアデータに基づいてトレーニングされ、データとして正常な画像から異常な画像を生成する。
VE-JPは、合成対の異常画像をガイドとして使用して、健康な画像の再構成を行う。
論文 参考訳(メタデータ) (2023-11-06T12:58:26Z) - Multivariate Analysis on Performance Gaps of Artificial Intelligence
Models in Screening Mammography [4.123006816939975]
異常分類のための深層学習モデルは,マンモグラフィーのスクリーニングにおいて良好に機能する。
モデル不全のリスクの増加に伴う人口統計学的、画像的、臨床的特徴はいまだに不明である。
年齢,人種,病理所見,組織密度,画像特徴によって定義されるサブグループによるモデル性能の評価を行った。
論文 参考訳(メタデータ) (2023-05-08T02:28:45Z) - CIRCA: comprehensible online system in support of chest X-rays-based
COVID-19 diagnosis [37.41181188499616]
深層学習技術は、新型コロナウイルスの迅速検出と疾患の進行のモニタリングに役立つ。
5つの異なるデータセットを使用して、モデルトレーニングのための23の799 CXRの代表的なデータセットを構築した。
The U-Net-based model was developed to identified a clinically relevant region of the CXR。
論文 参考訳(メタデータ) (2022-10-11T13:30:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。