論文の概要: An Explainable Two Stage Deep Learning Framework for Pericoronitis Assessment in Panoramic Radiographs Using YOLOv8 and ResNet-50
- arxiv url: http://arxiv.org/abs/2601.08401v1
- Date: Tue, 13 Jan 2026 10:15:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.146316
- Title: An Explainable Two Stage Deep Learning Framework for Pericoronitis Assessment in Panoramic Radiographs Using YOLOv8 and ResNet-50
- Title(参考訳): YOLOv8とResNet-50を用いたパノラマX線写真における腹膜炎診断のための説明可能な2段階深層学習フレームワーク
- Authors: Ajo Babu George, Pranav S, Kunal Agarwal,
- Abstract要約: YOLOv8は92%の精度と92.5%の平均精度を達成した。
ResNet-50分類では, 正常例では88%, 腹膜炎では86%のF1スコアが得られた。
- 参考スコア(独自算出の注目度): 0.24800153356942742
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Objectives: To overcome challenges in diagnosing pericoronitis on panoramic radiographs, an AI-assisted assessment system integrating anatomical localization, pathological classification, and interpretability. Methods: A two-stage deep learning pipeline was implemented. The first stage used YOLOv8 to detect third molars and classify their anatomical positions and angulations based on Winter's classification. Detected regions were then fed into a second-stage classifier, a modified ResNet-50 architecture, for detecting radiographic features suggestive of pericoronitis. To enhance clinical trust, Grad-CAM was used to highlight key diagnostic regions on the radiographs. Results: The YOLOv8 component achieved 92% precision and 92.5% mean average precision. The ResNet-50 classifier yielded F1-scores of 88% for normal cases and 86% for pericoronitis. Radiologists reported 84% alignment between Grad-CAM and their diagnostic impressions, supporting the radiographic relevance of the interpretability output. Conclusion: The system shows strong potential for AI-assisted panoramic assessment, with explainable AI features that support clinical confidence.
- Abstract(参考訳): 目的:パノラマX線写真における腹膜炎の診断における課題を克服するために,解剖学的局在,病理学的分類,解釈可能性を統合したAI支援評価システムを構築した。
メソッド: 2段階のディープラーニングパイプラインが実装された。
第1段階では、YOLOv8を用いて第3大臼歯を検知し、冬の分類に基づいて解剖学的位置と角化を分類した。
その後、検出された領域を第2段階の分類器、改良されたResNet-50アーキテクチャに入力し、腹膜炎を示唆する放射線学的特徴を検出する。
臨床信頼を高めるため,Grad-CAMはX線撮影において重要な診断領域を強調するために用いられた。
結果: YOLOv8は92%の精度と92.5%の平均精度を達成した。
ResNet-50分類では, 正常例では88%, 腹膜炎では86%のF1スコアが得られた。
放射線医はGrad-CAMと診断印象の84%の一致を報告し、解釈可能性出力のX線学的関連性を支持した。
結論: このシステムはAI支援パノラマアセスメントに強い可能性を示し,臨床の信頼性をサポートする説明可能なAI機能を備えている。
関連論文リスト
- A Lightweight, Interpretable Deep Learning System for Automated Detection of Cervical Adenocarcinoma In Situ (AIS) [0.0]
AISと正常頸部腺組織との鑑別が可能な深層学習型仮想病理支援システムを開発した。
モデル全体の精度は0.7323で、F1スコアはAbnormalクラスが0.75、Normalクラスが0.71である。
これらの知見は, 頚腺病理における軽快な形態, 解釈可能なAIシステムの実現可能性を示している。
論文 参考訳(メタデータ) (2025-11-22T13:48:37Z) - An Explainable Hybrid AI Framework for Enhanced Tuberculosis and Symptom Detection [55.35661671061754]
結核は、特に資源に制限された遠隔地において、重要な世界的な健康問題である。
本稿では, 胸部X線による疾患および症状の検出を, 2つの頭部と自己監督頭部を統合することで促進する枠組みを提案する。
本モデルでは, 新型コロナウイルス, 結核, 正常症例の鑑別で98.85%の精度が得られ, マルチラベル症状検出では90.09%のマクロF1スコアが得られた。
論文 参考訳(メタデータ) (2025-10-21T17:18:55Z) - A Disease-Centric Vision-Language Foundation Model for Precision Oncology in Kidney Cancer [54.58205672910646]
RenalCLIPは、腎腫瘤の特徴、診断、予後のための視覚言語基盤モデルである。
腎がんの完全な臨床ワークフローにまたがる10のコアタスクにおいて、優れたパフォーマンスと優れた一般化性を実現した。
論文 参考訳(メタデータ) (2025-08-22T17:48:19Z) - Explainable Anatomy-Guided AI for Prostate MRI: Foundation Models and In Silico Clinical Trials for Virtual Biopsy-based Risk Assessment [3.5408411348831232]
MRIによる前立腺癌(PCa)のリスク階層化のための,完全に自動化された,解剖学的に指導されたディープラーニングパイプラインを提案する。
パイプラインは、前立腺とそのゾーンを軸方向のT2強調MRI上にセグメント化するためのnnU-Netモジュール、オプションの解剖学的先行と臨床データで3Dパッチに微調整されたDiceedPT Swin Transformer基盤モデルに基づく分類モジュール、決定駆動画像領域をローカライズする反ファクトなヒートマップを生成するVAE-GANフレームワークの3つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2025-05-23T14:40:09Z) - Examining Deployment and Refinement of the VIOLA-AI Intracranial Hemorrhage Model Using an Interactive NeoMedSys Platform [0.7653237341032667]
現在の研究では、AIモデルの効率的なデプロイメントと改善を可能にする、NeoMedSysと呼ばれる放射線学ソフトウェアプラットフォームについて説明している。
実地臨床環境でのNeoMedSysの実行可能性と有効性について検討した。
論文 参考訳(メタデータ) (2025-05-14T13:33:38Z) - A Federated Learning Framework for Stenosis Detection [70.27581181445329]
本研究は,冠動脈造影画像(CA)の狭窄検出におけるFL(Federated Learning)の使用について検討した。
アンコナのOspedale Riuniti(イタリア)で取得した200人の患者1219枚の画像を含む2施設の異種データセットについて検討した。
データセット2には、文献で利用可能な90人の患者からの7492のシーケンシャルな画像が含まれている。
論文 参考訳(メタデータ) (2023-10-30T11:13:40Z) - Towards More Transparent and Accurate Cancer Diagnosis with an
Unsupervised CAE Approach [1.6704594205447996]
CBMIR(Content-Based Medical Image Retrieval)を利用したデジタル病理診断
UCBMIRは従来のがん診断ワークフローを再現し、WSIベースの診断結論における病理医を支援するための信頼性の高い方法を提供する。
論文 参考訳(メタデータ) (2023-05-19T15:04:16Z) - Learning to diagnose cirrhosis from radiological and histological labels
with joint self and weakly-supervised pretraining strategies [62.840338941861134]
そこで本稿では, 放射線学者が注釈付けした大規模データセットからの転写学習を活用して, 小さい付加データセットで利用できる組織学的スコアを予測することを提案する。
我々は,肝硬変の予測を改善するために,異なる事前訓練法,すなわち弱い指導法と自己指導法を比較した。
この方法は、METAVIRスコアのベースライン分類を上回り、AUCが0.84、バランスの取れた精度が0.75に達する。
論文 参考訳(メタデータ) (2023-02-16T17:06:23Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。