論文の概要: Towards Full Integration of Artificial Intelligence in Colon Capsule Endoscopy's Pathway
- arxiv url: http://arxiv.org/abs/2406.09761v1
- Date: Fri, 14 Jun 2024 06:59:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 14:53:58.789023
- Title: Towards Full Integration of Artificial Intelligence in Colon Capsule Endoscopy's Pathway
- Title(参考訳): 大腸内視鏡検査における人工知能の完全統合に向けて
- Authors: Esmaeil S. Nadimi, Jan-Matthias Braun, Benedicte Schelde-Olesen, Emile Prudhomme, Victoria Blanes-Vidal, Gunnar Baatrup,
- Abstract要約: 99.9%の感度で大腸ポリープを検出できる認識ネットワークを開発した。
キャラクタリゼーションネットワークは82%, ポリプの80パーセントを2つのグループに分類した。
サイズ推定網は88%の精度でポリープを正確に区分けした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Despite recent surge of interest in deploying colon capsule endoscopy (CCE) for early diagnosis of colorectal diseases, there remains a large gap between the current state of CCE in clinical practice, and the state of its counterpart optical colonoscopy (OC). Our study is aimed at closing this gap, by focusing on the full integration of AI in CCE's pathway, where image processing steps linked to the detection, localization and characterisation of important findings are carried out autonomously using various AI algorithms. We developed a recognition network, that with an impressive sensitivity of 99.9%, a specificity of 99.4%, and a negative predictive value (NPV) of 99.8%, detected colorectal polyps. After recognising a polyp within a sequence of images, only those images containing polyps were fed into two parallel independent networks for characterisation, and estimation of the size of those important findings. The characterisation network reached a sensitivity of 82% and a specificity of 80% in classifying polyps to two groups, namely neoplastic vs. non-neoplastic. The size estimation network reached an accuracy of 88% in correctly segmenting the polyps. By automatically incorporating this crucial information into CCE's pathway, we moved a step closer towards the full integration of AI in CCE's routine clinical practice.
- Abstract(参考訳): 大腸内視鏡(CCE)の早期診断への関心は近年高まっているが,CCEの現況とそれに対抗する光学的大腸内視鏡(OC)の現状との間には大きなギャップが残っている。
我々の研究は、CCEの経路におけるAIの完全な統合に焦点を当てて、このギャップを埋めることを目的としている。そこでは、さまざまなAIアルゴリズムを用いて、重要な発見の検出、ローカライゼーション、キャラクタリゼーションに関連する画像処理ステップが自律的に実行される。
我々は,99.9%の感度,99.4%の特異性,99.8%の陰性予測値(NPV)を検出できる認識ネットワークを開発した。
画像列内のポリプを認識した後、ポリプを含む画像のみを2つの並列独立ネットワークに供給し、それらの重要な発見の大きさを推定した。
キャラクタリゼーションネットワークは82%,ポリプを2つのグループ(ネオプラスティック対非ネオプラスティック)に分類すると80%の感度を示した。
サイズ推定網は88%の精度でポリープを正確に区分けした。
この重要な情報をCCEの経路に自動的に組み込むことで、我々はCCEの日常的な臨床実践におけるAIの完全な統合に向けて一歩前進した。
関連論文リスト
- Cancer-Net PCa-Data: An Open-Source Benchmark Dataset for Prostate
Cancer Clinical Decision Support using Synthetic Correlated Diffusion Imaging
Data [75.77035221531261]
Cancer-Net PCa-Dataは、PCa患者の画像データであるボリュームCDI$s$のオープンソースベンチマークデータセットである。
Cancer-Net PCa-Dataは、PCa用のCDI$s$画像データの最初の公開データセットである。
論文 参考訳(メタデータ) (2023-11-20T10:28:52Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Quality control for more reliable integration of deep learning-based
image segmentation into medical workflows [0.23609258021376836]
本稿では,その出力の確実性を推定するために,最先端自動品質制御(QC)手法の解析を行う。
磁気共鳴画像データにおける白色物質の超強度(WMH)を識別する脳画像分割タスクにおける最も有望なアプローチを検証した。
論文 参考訳(メタデータ) (2021-12-06T16:30:43Z) - A Generic Deep Learning Based Cough Analysis System from Clinically
Validated Samples for Point-of-Need Covid-19 Test and Severity Levels [85.41238731489939]
臨床検体8,380名を対象に,Covid-19の迅速一次スクリーニングツールの検出性能について検討した。
提案手法は,経験的モード分解(EMD)に基づくアルゴリズムであり,その後に音声特徴量に基づく分類を行う。
DeepCoughの2つの異なるバージョン、すなわちDeepCough2DとDeepCough3Dのテンソル次元について検討した。
論文 参考訳(メタデータ) (2021-11-10T19:39:26Z) - COVID-Net CT-2: Enhanced Deep Neural Networks for Detection of COVID-19
from Chest CT Images Through Bigger, More Diverse Learning [70.92379567261304]
胸部CT画像からのCOVID-19検出のための深部ニューラルネットワークであるCOVID-Net CT-2を導入する。
説明力を活用して、COVID-Net CT-2の意思決定行動を調査します。
結果は有望であり、コンピュータ支援型COVID-19アセスメントの有効なツールとして、ディープニューラルネットワークの強い可能性を示唆している。
論文 参考訳(メタデータ) (2021-01-19T03:04:09Z) - Towards a Computed-Aided Diagnosis System in Colonoscopy: Automatic
Polyp Segmentation Using Convolution Neural Networks [10.930181796935734]
大腸内視鏡およびカプセル内視鏡画像における病変の認識のための深層学習フレームワークを提案する。
本研究では, SfS と RGB の新規な組み合わせを提案するとともに, FCN をポリップセグメンテーションに用いた最初の研究について述べる。
論文 参考訳(メタデータ) (2021-01-15T10:08:53Z) - Encoding Clinical Priori in 3D Convolutional Neural Networks for
Prostate Cancer Detection in bpMRI [1.0312968200748118]
臨床的に有意な前立腺癌(csPCa)の空間的有病率と部位的鑑別を捉える確率的集団を導入した。
U-Net, U-SEResNet, UNet++, Attention U-Netの3次元適応を800の機関的トレーニングバリデーションスキャンを用いて訓練し, 放射線学的に推定されたアノテーションと組み合わせて計算を行った。
病理組織学的に確認されたcsPCaによる200個のbpMRI検査において,臨床先行診断を符号化する方法は,患者による診断を改善する強力な能力を示す。
論文 参考訳(メタデータ) (2020-10-31T13:10:58Z) - CT-CAPS: Feature Extraction-based Automated Framework for COVID-19
Disease Identification from Chest CT Scans using Capsule Networks [33.773060540360625]
新型コロナウイルス(COVID-19)の世界的な流行は世界に大きな影響を与えており、第二次世界大戦以来最も困難な危機の1つとなっている。
新型コロナウイルス感染者の早期診断と隔離は、感染拡大を予防し、流行曲線をフラット化するための重要な手段と考えられている。
最近では、主に畳み込みニューラルネットワーク(CNN)に基づくディープラーニングベースのモデルが、有望な診断結果を示している。
本稿では,CT-CAPS(CT-CAPS)と呼ばれるCapsule Networkフレームワークを用いて,胸部CTスキャンの特徴を自動抽出する手法を提案する。
論文 参考訳(メタデータ) (2020-10-30T03:35:29Z) - COVID-FACT: A Fully-Automated Capsule Network-based Framework for
Identification of COVID-19 Cases from Chest CT scans [29.327290778950324]
我々は「COVID-FACT」と呼ばれる新型コロナウイルス陽性症例の同定のための2段階完全自動化フレームワークを提案する。
COVID-FACTは感染したスライスを検出し、社内CTスキャンデータセットを使用して陽性のCOVID-19患者を特定する。
この実験に基づいて、COVID-FACTは90.82%の精度、94.55%の感度、86.04%の特異度、および0.98のエリアアンダー・ザ・カーブ(AUC)を達成できるが、監督やアノテーションははるかに少ない。
論文 参考訳(メタデータ) (2020-10-30T03:30:22Z) - Dual-Sampling Attention Network for Diagnosis of COVID-19 from Community
Acquired Pneumonia [46.521323145636906]
胸部CT(Central Computed Tomography)において,地域肺炎(CAP)からCOVID-19を自動診断するデュアルサンプリングアテンションネットワークを開発した。
特に,3D畳み込みネットワーク(CNN)を用いた新しいオンラインアテンションモジュールを提案する。
我々のアルゴリズムは、受信機動作特性曲線(AUC)値0.944、精度87.5%、感度86.9%、特異度90.1%、F1スコア82.0%の領域で、COVID-19画像を識別することができる。
論文 参考訳(メタデータ) (2020-05-06T09:56:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。