論文の概要: Development and validation of an AI foundation model for endoscopic diagnosis of esophagogastric junction adenocarcinoma: a cohort and deep learning study
- arxiv url: http://arxiv.org/abs/2509.17660v2
- Date: Tue, 23 Sep 2025 05:41:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 11:50:03.96921
- Title: Development and validation of an AI foundation model for endoscopic diagnosis of esophagogastric junction adenocarcinoma: a cohort and deep learning study
- Title(参考訳): 食道胃接合腺癌の内視鏡診断のためのAI基盤モデルの開発と評価 : コホートおよびディープラーニングによる研究
- Authors: Yikun Ma, Bo Li, Ying Chen, Zijie Yue, Shuchang Xu, Jingyao Li, Lei Ma, Liang Zhong, Duowu Zou, Leiming Xu, Yunshi Zhong, Xiaobo Li, Weiqun Ding, Minmin Zhang, Dongli He, Zhenghong Li, Ye Chen, Ye Zhao, Jialong Zhuo, Xiaofen Wu, Lisha Yi, Miaojing Shi, Huihui Sun,
- Abstract要約: 食道接合腺癌 (EGJA) の早期発見は, 予後改善に重要であるが, 術者に依存している。
本稿では,内視鏡画像を用いたEGJAのスクリーニングとステージング診断のための人工知能基盤モデルの開発を初めて試みる。
- 参考スコア(独自算出の注目度): 33.84976409983329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The early detection of esophagogastric junction adenocarcinoma (EGJA) is crucial for improving patient prognosis, yet its current diagnosis is highly operator-dependent. This paper aims to make the first attempt to develop an artificial intelligence (AI) foundation model-based method for both screening and staging diagnosis of EGJA using endoscopic images. In this cohort and learning study, we conducted a multicentre study across seven Chinese hospitals between December 28, 2016 and December 30, 2024. It comprises 12,302 images from 1,546 patients; 8,249 of them were employed for model training, while the remaining were divided into the held-out (112 patients, 914 images), external (230 patients, 1,539 images), and prospective (198 patients, 1,600 images) test sets for evaluation. The proposed model employs DINOv2 (a vision foundation model) and ResNet50 (a convolutional neural network) to extract features of global appearance and local details of endoscopic images for EGJA staging diagnosis. Our model demonstrates satisfactory performance for EGJA staging diagnosis across three test sets, achieving an accuracy of 0.9256, 0.8895, and 0.8956, respectively. In contrast, among representative AI models, the best one (ResNet50) achieves an accuracy of 0.9125, 0.8382, and 0.8519 on the three test sets, respectively; the expert endoscopists achieve an accuracy of 0.8147 on the held-out test set. Moreover, with the assistance of our model, the overall accuracy for the trainee, competent, and expert endoscopists improves from 0.7035, 0.7350, and 0.8147 to 0.8497, 0.8521, and 0.8696, respectively. To our knowledge, our model is the first application of foundation models for EGJA staging diagnosis and demonstrates great potential in both diagnostic accuracy and efficiency.
- Abstract(参考訳): 食道接合腺癌 (EGJA) の早期発見は, 予後改善に重要であるが, 術者に依存している。
本稿では,内視鏡画像を用いたEGJAのスクリーニングとステージング診断のためのAI基盤モデルの開発を初めて試みる。
本研究は,2016年12月28日から2024年12月30日までの7つの中国病院を対象とした多施設共同研究である。
1,546人の12,302枚の画像からなり,そのうち8,249枚の画像が模型訓練に使用され,残りは留置された(112例,914例),外部(230例,1,539例),将来的な(198例,1,600例)テストセットに分けて評価を行った。
提案モデルはDINOv2(視覚基盤モデル)とResNet50(畳み込みニューラルネットワーク)を用いて,EGJAステージング診断のための大域的外観の特徴と内視鏡像の局所的詳細を抽出する。
本モデルでは, EGJAのステージング診断を3つのテストセットで行い, 0.9256, 0.8895, 0.8956の精度が得られた。
対照的に、代表的なAIモデルの中で、最高のもの(ResNet50)はそれぞれ3つのテストセットで0.9125、0.8382、0.8519の精度を達成する。
さらに,本モデルを用いて,訓練者,有能者,専門家の内科医の総合的精度を0.7035,0.7350,0.8147から0.8497,0.8521,0.8696に改善した。
我々の知る限り,本モデルはEGJAステージング診断のための基礎モデルの最初の応用であり,診断精度と効率の両面で大きな可能性を証明している。
関連論文リスト
- A Disease-Centric Vision-Language Foundation Model for Precision Oncology in Kidney Cancer [54.58205672910646]
RenalCLIPは、腎腫瘤の特徴、診断、予後のための視覚言語基盤モデルである。
腎がんの完全な臨床ワークフローにまたがる10のコアタスクにおいて、優れたパフォーマンスと優れた一般化性を実現した。
論文 参考訳(メタデータ) (2025-08-22T17:48:19Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Multi-centric AI Model for Unruptured Intracranial Aneurysm Detection and Volumetric Segmentation in 3D TOF-MRI [6.397650339311053]
我々は3DTOF-MRIで未破裂脳動脈瘤(UICA)の検出と分節を併用したオープンソースのnnU-NetベースのAIモデルを開発した。
4つの異なるトレーニングデータセットが作成され、nnU-Netフレームワークがモデル開発に使用された。
一次モデルは85%の感度と0.23FP/ケースレートを示し、ADAM-challengeの勝者(61%)と、ADAMデータでトレーニングされたnnU-Net(51%)を感度で上回った。
論文 参考訳(メタデータ) (2024-08-30T08:57:04Z) - Improved Esophageal Varices Assessment from Non-Contrast CT Scans [15.648325577912608]
食道静脈瘤(EV)は門脈圧亢進による重篤な健康上の問題である。
非造影CT(non-contrast Computed Tomography, NC-CT)は, 安価で非侵襲的な画像モダリティであるにもかかわらず, EV評価のための主要な臨床診断ツールとして完全には受け入れられていない。
我々は,NC-CTスキャンにおける重要な臓器機能の解析を改良し,EVを効果的に評価するMulti-Organ-cOhesion-Network(MOON)を提案する。
論文 参考訳(メタデータ) (2024-07-18T06:49:10Z) - Incorporating Anatomical Awareness for Enhanced Generalizability and Progression Prediction in Deep Learning-Based Radiographic Sacroiliitis Detection [0.8248058061511542]
本研究の目的は, 深層学習モデルに解剖学的認識を取り入れることで, 一般化性を高め, 疾患進行の予測を可能にするかを検討することである。
モデルの性能は, 受信機動作特性曲線(AUC)下の領域, 精度, 感度, 特異性を用いて比較した。
論文 参考訳(メタデータ) (2024-05-12T20:02:25Z) - Reconstruction of Patient-Specific Confounders in AI-based Radiologic
Image Interpretation using Generative Pretraining [12.656718786788758]
本稿では,DiffChestと呼ばれる自己条件拡散モデルを提案し,胸部X線画像のデータセット上で訓練する。
DiffChest氏は、患者固有のレベルでの分類を説明し、モデルを誤解させる可能性のある要因を視覚化する。
本研究は,医用画像分類における拡散モデルに基づく事前訓練の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-09-29T10:38:08Z) - Deep Learning-Based Automatic Diagnosis System for Developmental Dysplasia of the Hip [3.216812203515066]
股関節の発達性異形成の臨床的診断は、通常は手動で重要な放射線学的角度を計測する。
本研究の目的は,DDH診断の精度と整合性を高めるために,これらの測定値を統合する自動システムを開発することである。
論文 参考訳(メタデータ) (2022-09-07T19:50:30Z) - Advancing COVID-19 Diagnosis with Privacy-Preserving Collaboration in
Artificial Intelligence [79.038671794961]
我々はUCADI(Unified CT-COVID AI Diagnostic Initiative)を立ち上げ、各ホスト機関でAIモデルを分散的にトレーニングし、独立して実行することができる。
本研究は,中国とイギリスに所在する23の病院で採取した3,336例の胸部CT9,573例について検討した。
論文 参考訳(メタデータ) (2021-11-18T00:43:41Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。