論文の概要: From ACR O-RADS 2022 to Explainable Deep Learning: Comparative Performance of Expert Radiologists, Convolutional Neural Networks, Vision Transformers, and Fusion Models in Ovarian Masses
- arxiv url: http://arxiv.org/abs/2511.06282v1
- Date: Sun, 09 Nov 2025 08:36:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.860284
- Title: From ACR O-RADS 2022 to Explainable Deep Learning: Comparative Performance of Expert Radiologists, Convolutional Neural Networks, Vision Transformers, and Fusion Models in Ovarian Masses
- Title(参考訳): ACR O-RADS 2022から説明可能なディープラーニング: 専門放射線学者, 畳み込みニューラルネットワーク, 視覚変換器, 核融合モデルの比較
- Authors: Ali Abbasian Ardakani, Afshin Mohammadi, Alisa Mohebbi, Anushya Vijayananthan, Sook Sam Leong, Lim Yi Ting, Mohd Kamil Bin Mohamad Fabell, U Rajendra Acharya, Sepideh Hatamikia,
- Abstract要約: 深層学習モデルは、画像に基づく卵巣病変のキャラクタリゼーションにおいて有望であることを示す。
本研究は,O-RADS v2022を応用したラジオロジカル性能の評価を行い,それを先進畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)モデルと比較した。
CNNのAUCは0.620から0.908、AUCは59.2%から86.4%、ViT16-384は0.941、精度は87.4%だった。
- 参考スコア(独自算出の注目度): 8.734125009057918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Background: The 2022 update of the Ovarian-Adnexal Reporting and Data System (O-RADS) ultrasound classification refines risk stratification for adnexal lesions, yet human interpretation remains subject to variability and conservative thresholds. Concurrently, deep learning (DL) models have demonstrated promise in image-based ovarian lesion characterization. This study evaluates radiologist performance applying O-RADS v2022, compares it to leading convolutional neural network (CNN) and Vision Transformer (ViT) models, and investigates the diagnostic gains achieved by hybrid human-AI frameworks. Methods: In this single-center, retrospective cohort study, a total of 512 adnexal mass images from 227 patients (110 with at least one malignant cyst) were included. Sixteen DL models, including DenseNets, EfficientNets, ResNets, VGGs, Xception, and ViTs, were trained and validated. A hybrid model integrating radiologist O-RADS scores with DL-predicted probabilities was also built for each scheme. Results: Radiologist-only O-RADS assessment achieved an AUC of 0.683 and an overall accuracy of 68.0%. CNN models yielded AUCs of 0.620 to 0.908 and accuracies of 59.2% to 86.4%, while ViT16-384 reached the best performance, with an AUC of 0.941 and an accuracy of 87.4%. Hybrid human-AI frameworks further significantly enhanced the performance of CNN models; however, the improvement for ViT models was not statistically significant (P-value >0.05). Conclusions: DL models markedly outperform radiologist-only O-RADS v2022 assessment, and the integration of expert scores with AI yields the highest diagnostic accuracy and discrimination. Hybrid human-AI paradigms hold substantial potential to standardize pelvic ultrasound interpretation, reduce false positives, and improve detection of high-risk lesions.
- Abstract(参考訳): 背景: Ovarian-Adnexal Reporting and Data System (O-RADS)超音波分類の2022年の更新は、副眼窩病変のリスク階層化を洗練させるが、人間の解釈は変質性や保守的な閾値に左右される。
同時に, 画像に基づく卵巣病変の評価において, 深層学習(DL)モデルが有望であることが示されている。
本研究は,O-RADS v2022を用いて放射線学のパフォーマンスを評価し,それを先進的畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)モデルと比較し,ハイブリッドAIフレームワークによる診断効果について検討する。
方法: 本研究では, 227例 (110例, 悪性嚢胞1例) から512例の副眼窩腫瘤像を認めた。
DenseNets、EfficientNets、ResNets、VGGs、Xception、ViTsを含む16のDLモデルがトレーニングされ、検証された。
O-RADSスコアとDL予測確率を併用したハイブリッドモデルもそれぞれのスキームで構築された。
結果: 放射線技師のみによるO-RADS評価ではAUCは0.683、総合精度は68.0%であった。
CNNのAUCは0.620から0.908、AUCは59.2%から86.4%、ViT16-384は0.941、精度は87.4%だった。
ハイブリッドAIフレームワークはCNNモデルの性能をさらに向上させたが、ViTモデルの改善は統計的に有意ではなかった(P-value >0.05)。
結論: DLモデルは、放射線技師のみによるO-RADS v2022評価を著しく上回り、専門家スコアとAIの統合は、診断精度と識別率が最も高い。
ハイブリッドヒトAIパラダイムは、骨盤内超音波の解釈を標準化し、偽陽性を減らし、高リスク病変の検出を改善する大きな可能性を秘めている。
関連論文リスト
- Validating Vision Transformers for Otoscopy: Performance and Data-Leakage Effects [42.465094107111646]
本研究では、耳疾患の診断精度を高めるために、視覚トランスモデル、特にスウィントランスモデルの有効性を評価する。
この研究はチリ大学臨床病院の耳鼻咽喉科の実際のデータセットを利用した。
論文 参考訳(メタデータ) (2025-11-06T23:20:37Z) - Curriculum Learning with Synthetic Data for Enhanced Pulmonary Nodule Detection in Chest Radiographs [0.0]
本研究は, カリキュラム学習と総合的拡張を統合することで, 難治性肺結節の検出が促進されるかどうかを検証した。
FPN(Feature Pyramid Network)バックボーンを備えた高速なR-CNNは、ハイブリッドデータセットでトレーニングされた。
論文 参考訳(メタデータ) (2025-10-09T02:06:13Z) - Development and validation of an AI foundation model for endoscopic diagnosis of esophagogastric junction adenocarcinoma: a cohort and deep learning study [33.84976409983329]
食道接合腺癌 (EGJA) の早期発見は, 予後改善に重要であるが, 術者に依存している。
本稿では,内視鏡画像を用いたEGJAのスクリーニングとステージング診断のための人工知能基盤モデルの開発を初めて試みる。
論文 参考訳(メタデータ) (2025-09-22T12:03:40Z) - Design and Validation of a Responsible Artificial Intelligence-based System for the Referral of Diabetic Retinopathy Patients [65.57160385098935]
糖尿病網膜症の早期発見は、視力喪失のリスクを最大95%減少させる可能性がある。
我々は、AIライフサイクル全体にわたる倫理的原則を取り入れた、DRスクリーニングのための責任あるAIシステムであるRAIS-DRを開発した。
当科におけるRAIS-DRをFDA認可のEyeArtシステムと比較した。
論文 参考訳(メタデータ) (2025-08-17T21:54:11Z) - Handcrafted vs. Deep Radiomics vs. Fusion vs. Deep Learning: A Comprehensive Review of Machine Learning -Based Cancer Outcome Prediction in PET and SPECT Imaging [2.3507313809321233]
この体系的なレビューは、2020年から2025年にかけて発行された226の研究を分析し、結果予測のためにPETまたはSPECTイメージングに機械学習を適用した。
PETベースの研究は、一般的にSPECTを用いた場合よりも優れており、おそらくは空間分解能と感度が高いためである。
一般的な制限としては、階級不均衡の不十分な扱い、データ不足、人口の多様性の低さがあった。
論文 参考訳(メタデータ) (2025-07-21T21:03:12Z) - Artificial Intelligence-Based Triaging of Cutaneous Melanocytic Lesions [0.8864540224289991]
患者数の増加とより包括的な診断の必要性により、病理学者は作業負荷の増大に直面している。
われわれは,全スライド画像に基づいて皮膚メラノサイト性病変をトリアージする人工知能(AI)モデルを開発した。
論文 参考訳(メタデータ) (2024-10-14T13:49:04Z) - Deep-Learning Tool for Early Identifying Non-Traumatic Intracranial
Hemorrhage Etiology based on CT Scan [40.51754649947294]
深層学習モデルは、2011年1月から2018年4月までに収集された非外傷性ICHを用いた1868個のNCCTスキャンを用いて開発された。
診断成績は臨床医の成績と比較した。
臨床医は, システム拡張による特定の出血エチオロジーの感度, 特異性, 精度を著しく改善した。
論文 参考訳(メタデータ) (2023-02-02T08:45:17Z) - CIRCA: comprehensible online system in support of chest X-rays-based
COVID-19 diagnosis [37.41181188499616]
深層学習技術は、新型コロナウイルスの迅速検出と疾患の進行のモニタリングに役立つ。
5つの異なるデータセットを使用して、モデルトレーニングのための23の799 CXRの代表的なデータセットを構築した。
The U-Net-based model was developed to identified a clinically relevant region of the CXR。
論文 参考訳(メタデータ) (2022-10-11T13:30:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。