論文の概要: DeepGI: Explainable Deep Learning for Gastrointestinal Image Classification
- arxiv url: http://arxiv.org/abs/2511.21959v1
- Date: Wed, 26 Nov 2025 22:35:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.319318
- Title: DeepGI: Explainable Deep Learning for Gastrointestinal Image Classification
- Title(参考訳): DeepGI:消化器画像分類のための説明可能なディープラーニング
- Authors: Walid Houmaidi, Mohamed Hadadi, Youssef Sabiri, Yousra Chtouki,
- Abstract要約: この研究は、可変照明、ゆらぎのあるカメラアングル、頻繁な画像アーティファクトなど、一般的な内視鏡的課題に直面している。
最高性能のVGG16とMobileNetV2はそれぞれ96.5%の精度を達成した。
このアプローチには、Grad-CAM視覚化による説明可能なAIが含まれており、モデル予測に最も影響を及ぼす画像領域の識別を可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a comprehensive comparative model analysis on a novel gastrointestinal medical imaging dataset, comprised of 4,000 endoscopic images spanning four critical disease classes: Diverticulosis, Neoplasm, Peritonitis, and Ureters. Leveraging state-of-the-art deep learning techniques, the study confronts common endoscopic challenges such as variable lighting, fluctuating camera angles, and frequent imaging artifacts. The best performing models, VGG16 and MobileNetV2, each achieved a test accuracy of 96.5%, while Xception reached 94.24%, establishing robust benchmarks and baselines for automated disease classification. In addition to strong classification performance, the approach includes explainable AI via Grad-CAM visualization, enabling identification of image regions most influential to model predictions and enhancing clinical interpretability. Experimental results demonstrate the potential for robust, accurate, and interpretable medical image analysis even in complex real-world conditions. This work contributes original benchmarks, comparative insights, and visual explanations, advancing the landscape of gastrointestinal computer-aided diagnosis and underscoring the importance of diverse, clinically relevant datasets and model explainability in medical AI research.
- Abstract(参考訳): 本論文は,4つの重篤な疾患のクラスにまたがる4000枚の内視鏡画像からなる,新しい消化管医療画像データセットに関する包括的比較モデル解析である。
最先端のディープラーニング技術を活用することで、可変照明、ゆらぎのあるカメラアングル、頻繁な画像アーティファクトといった、一般的な内視鏡的課題に直面します。
最高のパフォーマンスモデルであるVGG16とMobileNetV2はそれぞれ96.5%の精度を達成し、Xceptionは94.24%に達した。
強力な分類性能に加えて、Grad-CAM視覚化によるAIの説明、モデル予測に最も影響を及ぼす画像領域の識別、臨床解釈可能性の向上などが含まれる。
実験結果から, 複雑な実環境においても, 堅牢で, 正確で, 解釈可能な医用画像解析の可能性が示された。
この研究は、オリジナルのベンチマーク、比較洞察、視覚的説明に貢献し、消化器コンピュータ支援診断の展望を推し進め、医療AI研究における多種多様な臨床関連データセットとモデル説明可能性の重要性を強調している。
関連論文リスト
- AGGRNet: Selective Feature Extraction and Aggregation for Enhanced Medical Image Classification [11.697160779548504]
我々は,詳細な視覚パターンを理解するために,情報的・非情報的特徴を抽出するAGGRNetフレームワークを提案する。
KvasirデータセットのSOTAモデルよりも5%向上した。
論文 参考訳(メタデータ) (2025-11-15T23:01:09Z) - Machine Learning-Based Quantification of Vesicoureteral Reflux with Enhancing Accuracy and Efficiency [0.0]
VUR(Vesicoureteral reflux)は、伝統的に主観評価システムを用いて評価される。
本研究では,VCUG(Volting cystourethrogram)画像の解析により,機械学習による診断整合性の向上について検討した。
論文 参考訳(メタデータ) (2025-06-13T07:09:12Z) - Metrics that matter: Evaluating image quality metrics for medical image generation [48.85783422900129]
本研究は、脳MRIデータを用いて、一般的に使用される非参照画像品質指標を包括的に評価する。
本研究は, ノイズ, 分布変化, および臨床的に関係のある不正確さを模倣した形態的変化を含む, 様々な課題に対する計量感度を評価する。
論文 参考訳(メタデータ) (2025-05-12T01:57:25Z) - Fine-tuning Vision Language Models with Graph-based Knowledge for Explainable Medical Image Analysis [44.0659716298839]
現在の糖尿病網膜症(DR)のステージングモデルはほとんど解釈できない。
本稿では,グラフ表現学習を視覚言語モデル(VLM)と統合し,説明可能なDR診断を実現する手法を提案する。
論文 参考訳(メタデータ) (2025-03-12T20:19:07Z) - Enhanced Multi-Class Classification of Gastrointestinal Endoscopic Images with Interpretable Deep Learning Model [0.7349657385817541]
本研究は,Kvasirデータセットから8000個のラベル付き内視鏡画像を用いて分類精度を向上させる新しい手法を提案する。
提案したアーキテクチャは、適度なモデルの複雑さを保ちながら、データ拡張への依存をなくす。
テスト精度は94.25%、精度は94.29%、リコールは94.24%である。
論文 参考訳(メタデータ) (2025-03-02T08:07:50Z) - Large-scale and Fine-grained Vision-language Pre-training for Enhanced CT Image Understanding [17.783231335173486]
解剖学的CT画像解釈のための細粒度視覚言語モデル(fVLM)を提案する。
しかし、微粒なアライメントは、かなり偽陰性な課題に直面している。
今回,69,086例のCT画像と報告データをもとに,これまでで最大のCTデータセットを収集した。
論文 参考訳(メタデータ) (2025-01-24T14:50:48Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - Exploiting Causality Signals in Medical Images: A Pilot Study with
Empirical Results [1.2400966570867322]
本稿では,ニューラルネットワークによる分類目的の画像から弱い因果信号を発見し,利用するための新しい手法を提案する。
このようにして、画像の1つの部分における特徴の存在が、画像の別の部分における他の特徴の出現にどのように影響するかをモデル化する。
提案手法は,畳み込みニューラルネットワークのバックボーンと因果係数抽出モジュールから構成される。
論文 参考訳(メタデータ) (2023-09-19T08:00:26Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。