論文の概要: Using deep learning for predicting cleansing quality of colon capsule endoscopy images
- arxiv url: http://arxiv.org/abs/2601.13412v1
- Date: Mon, 19 Jan 2026 21:48:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.069977
- Title: Using deep learning for predicting cleansing quality of colon capsule endoscopy images
- Title(参考訳): 深層学習を用いた大腸内視鏡画像のクリーニング品質予測
- Authors: Puneet Sharma, Kristian Dalsbø Hindberg, Benedicte Schelde-Olesen, Ulrik Deding, Esmaeil S. Nadimi, Jan-Matthias Braun,
- Abstract要約: 我々は、レイトン・レックス・スケール(Poor, Fair, Good, Excellent)で14人の臨床医によってラベル付けされた500枚の画像のデータセットを使用して、分類のためにResNet-18モデルをトレーニングする。
構造化プルーニング技術は反復的に適用され,精度を保ちながらかなりの間隔を確保できた。
本研究では,Grad-CAM,Grad-CAM++,Eigen-CAM,Ablation-CAM,Random-CAMを用いて解析を行った。
- 参考スコア(独自算出の注目度): 0.6736470014374004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we explore the application of deep learning techniques for predicting cleansing quality in colon capsule endoscopy (CCE) images. Using a dataset of 500 images labeled by 14 clinicians on the Leighton-Rex scale (Poor, Fair, Good, and Excellent), a ResNet-18 model was trained for classification, leveraging stratified K-fold cross-validation to ensure robust performance. To optimize the model, structured pruning techniques were applied iteratively, achieving significant sparsity while maintaining high accuracy. Explainability of the pruned model was evaluated using Grad-CAM, Grad-CAM++, Eigen-CAM, Ablation-CAM, and Random-CAM, with the ROAD method employed for consistent evaluation. Our results indicate that for a pruned model, we can achieve a cross-validation accuracy of 88% with 79% sparsity, demonstrating the effectiveness of pruning in improving efficiency from 84% without compromising performance. We also highlight the challenges of evaluating cleansing quality of CCE images, emphasize the importance of explainability in clinical applications, and discuss the challenges associated with using the ROAD method for our task. Finally, we employ a variant of adaptive temperature scaling to calibrate the pruned models for an external dataset.
- Abstract(参考訳): 本研究では,大腸内視鏡(CCE)画像のクリーニング品質を予測するためのディープラーニング技術の応用について検討した。
Leighton-Rexスケール(Poor, Fair, Good, Excellent)で14人の臨床医によってラベル付けされた500枚の画像のデータセットを使用して、ResNet-18モデルは、階層化されたK-フォルダのクロスバリデーションを利用して、堅牢なパフォーマンスを確保するために、分類のために訓練された。
モデル最適化のために, 構造化プルーニング手法を反復的に適用し, 精度を高く保ちながら, かなりの間隔を確保できた。
Grad-CAM, Grad-CAM++, Eigen-CAM, Ablation-CAM, Random-CAMを用いて, ROAD法による一貫した評価を行った。
以上の結果から, 刈り込みモデルでは, 79%の間隔で88%のクロスバリデーション精度を達成でき, 性能を損なうことなく84%から効率を向上できることを示した。
また,CCE画像のクリーニング品質を評価する上での課題を強調し,臨床応用における説明可能性の重要性を強調し,ROAD法の課題について議論した。
最後に、適応的な温度スケーリングの変種を用いて、外部データセットのプルーニングモデルをキャリブレーションする。
関連論文リスト
- GRASP-PsONet: Gradient-based Removal of Spurious Patterns for PsOriasis Severity Classification [0.0]
本稿では,突発的な相関を導入し,問題のあるトレーニングイメージを自動的にフラグするフレームワークを提案する。
フラグ付き画像の8.2%は、保持されたテストセットでモデルAUC-ROCを5%(85%から90%)改善する。
2人の皮膚科医によって評価された訓練データのサブセットに適用した場合、この方法は、レイター間不一致の90%以上を識別する。
論文 参考訳(メタデータ) (2025-06-27T03:42:09Z) - Lightweight Relational Embedding in Task-Interpolated Few-Shot Networks for Enhanced Gastrointestinal Disease Classification [0.0]
大腸癌の検出は、患者の生存率を高めるために重要である。
大腸内視鏡は、適切な高品質の内視鏡画像を取得することに依存する。
Few-Shot Learning アーキテクチャにより、我々のモデルは、目に見えないきめ細かな内視鏡画像パターンに迅速に適応できる。
精度は90.1%,精度は0.845,リコールは0.942,F1スコアは0.891であった。
論文 参考訳(メタデータ) (2025-05-30T16:54:51Z) - A Deep Learning-Driven Inhalation Injury Grading Assistant Using Bronchoscopy Images [2.7440389071148386]
吸入障害は、従来のグレーディング法が主観的であるため、臨床診断とグレーディングにおいて課題となる。
そこで本研究では,気管支鏡による吸入外傷の診断支援ツールについて紹介した。
論文 参考訳(メタデータ) (2025-05-13T12:48:36Z) - Enhanced Multi-Class Classification of Gastrointestinal Endoscopic Images with Interpretable Deep Learning Model [0.7349657385817541]
本研究は,Kvasirデータセットから8000個のラベル付き内視鏡画像を用いて分類精度を向上させる新しい手法を提案する。
提案したアーキテクチャは、適度なモデルの複雑さを保ちながら、データ拡張への依存をなくす。
テスト精度は94.25%、精度は94.29%、リコールは94.24%である。
論文 参考訳(メタデータ) (2025-03-02T08:07:50Z) - Controllable retinal image synthesis using conditional StyleGAN and latent space manipulation for improved diagnosis and grading of diabetic retinopathy [0.0]
本稿では,高忠実かつ多様なDRファウンダス画像を生成するためのフレームワークを提案する。
生成画像内のDR重大度と視覚的特徴を包括的に制御する。
我々は、条件付きで生成したDR画像をグレードで操作し、データセットの多様性をさらに向上する。
論文 参考訳(メタデータ) (2024-09-11T17:08:28Z) - Learning to Adapt Foundation Model DINOv2 for Capsule Endoscopy Diagnosis [36.403320243871526]
カスタマイズを容易にするローランク適応(LoRA)技術を用いたアダプティブ基礎モデル(Adapt foundation model)という簡易なアプローチを導入する。
従来の微調整方法とは異なり、我々は特定の外科領域の知識を吸収するように設計されたLoRAレイヤーを含む。
本ソリューションは,カプセル内視鏡診断に基礎モデルを適用できることを実証するものである。
論文 参考訳(メタデータ) (2024-06-15T05:21:33Z) - Boosting Automatic COVID-19 Detection Performance with Self-Supervised
Learning and Batch Knowledge Ensembling [38.65823547986758]
既存の方法は、通常、事前訓練プロセスとして、自然画像からの教師あり転送学習を使用する。
バッチ知識を微調整フェーズに導入し,自己教師型学習に使用するメモリを削減した。
本手法は,注釈付きCXR訓練画像が大幅に縮小された場合でも高い検出精度を維持する。
論文 参考訳(メタデータ) (2022-12-19T07:39:26Z) - HistoPerm: A Permutation-Based View Generation Approach for Improving
Histopathologic Feature Representation Learning [33.1098457952173]
HistoPermは共同埋め込みアーキテクチャを用いた表現学習のためのビュー生成手法である。
HistoPermは、全スライディングのヒストロジー画像から抽出したパッチの増分ビューを置換し、分類性能を向上させる。
以上の結果から,HistoPermは,精度,F1スコア,AUCの点で,パッチレベルとスライドレベルの分類性能を一貫して向上させることがわかった。
論文 参考訳(メタデータ) (2022-09-13T17:35:08Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Adaptive Feature Selection Guided Deep Forest for COVID-19
Classification with Chest CT [49.09507792800059]
胸部CT画像に基づくCOVID-19分類のための適応的特徴選択ガイド付き深層林(AFS-DF)を提案する。
AFS-DF on COVID-19 data with 1495 patients of COVID-19 and 1027 patients of community acquired pneumonia (CAP)。
論文 参考訳(メタデータ) (2020-05-07T06:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。